Académique Documents
Professionnel Documents
Culture Documents
net/publication/337243676
CITATIONS READS
0 1,210
2 authors:
Some of the authors of this publication are also working on these related projects:
1rst International Conference on Smart , Monitored and Controlled Cities (ICSM2C-2017) feb 17-19 View project
All content following this page was uploaded by Nasri Nejah on 14 November 2019.
MEMOIRE
Présenté à
en vue de l’obtention du
MASTERE
NTSID
Par
Ghabri Afef
A mon père
Hiba et Aya qui m'ont toujours soutenu au prix des sacrifices inoubliables.
toujours unis.
A l’âme de ma grand-mère
Ton soutien permanent me remonte le moral et tes conseils m'incitent à relever les
défis.
A mes professeurs
Qui n’ont cessé jamais de me remettre sur la bonne voie et pour leur aide afin de
mener à bien ce travail.
Mes remerciements sont en premier lieu pour Dieu et pour son aide
afin de réaliser mon travail.
Je suis honorée par les membres de jury qui ont accepté de la juger.
Introduction générale
Les progrès technologiques effectués ces dernières années ont autorisé le développement de
nouvelles variétés de capteurs pouvant être configurés et utilisés pour la communication sans fil
et afin de former des réseaux autonomes. Leur miniaturisation grandissante et l’abandon du
complexe et onéreux câblage ainsi que leur perfectionnement constant sont des nouveautés
intéressantes. En effet, les capteurs peuvent acheminer des données à tous les nœuds qui sont
connectés au réseau. En s’affranchissant du problème de câblage qui limite considérablement la
propagation d’un nombre important de nœuds, il est devenu praticable de déployer un réseau
formé d’un nombre élevé de capteurs collaboratifs dans le but de la surveillance d’une zone plus
large. Ainsi, ils ont pu être intégrés dans plusieurs domaines d’applications tels que le domaine
militaire, environnementale, domotique et médical. Les contraintes imposées qui affectent le
fonctionnement général du réseau sont la faible capacité de stockage, de traitement et surtout la
limitation d'énergie à cause de la réduction de la taille des batteries. De ce fait, la consommation
énergétique détermine la durée de vie du réseau alors le but de la majorité des travaux concernant
les réseaux de capteurs sans fil est la réduction de cette consommation. De nombreuses
applications emploient un déploiement aléatoire d’un nombre élevé de capteurs. La phase de
localisation s’avère donc nécessaire au fonctionnement du réseau et aussi à l’exploitation des
informations récoltées. On doit alors localiser tous les nœuds avec la meilleure exactitude
possible. Tout comme la problématique de la gestion de la consommation d’énergie, le problème
de localisation et particulièrement de géolocalisation paraît un défi et les travaux de recherches
doivent s’intéresser au développement des méthodes de positionnement efficaces. Les systèmes
de localisation sont devenus de plus en plus essentielles pour perfectionner notre mode de vie
donc il est nécessaire de mettre en place des services de contrôle ou de suivi d'objets localisables
agissant à distance. Il existe tant de solutions pour le positionnement dans les réseaux de capteurs
sans fil qui peuvent être classifiées selon différentes critères en plusieurs familles. Parmi ces
méthodes, on peut citer Amorphous, Centroide, DV-hop et APIT. Ces techniques sont simples car
elles respectent les contraintes matérielles et énergétiques des nœuds capteurs et aussi elles
assurent un faible coût par contre leur problème fondamental est la faible précision. Ainsi,
l’objectif principal de cette mémoire est de proposer une technique de géolocalisation et de suivi
de patients en milieu médicalisé en garantissant une haute précision avec un coût opérationnel
réduit.
On est tout d’abord focalisé sur une introduction au domaine des réseaux de capteurs qui est
très vaste. Nous présentons leurs caractéristiques, leurs différents domaines d’application,
leur architecture et on explique leurs contraintes. A la fin de ce chapitre on décrit les
principaux axes de recherches pour ces réseaux.
Dans le second chapitre, on explique le principe de la localisation et les différentes techniques
de positionnement qui peuvent être classés en différentes catégories. Il résume aussi leurs
avantages et leurs inconvénients. Dans ce contexte, nous citons leurs critères d’évaluations
qui vont être pris en considération lors de la conception d’une nouvelle approche. A la fin de
ce chapitre, nous donnons une comparaison entre les méthodes de localisation qui va nous
aider par la suite à bien choisir la solution convenable pour satisfaire nos besoins.
Le troisième chapitre recense un cas particulier de localisation grâce aux coordonnées
géographiques qui est la géolocalisation. On vise alors expliquer son principe et son intérêt et
on donne un aperçu sur quelques méthodes existantes. Nous détaillons notre méthode globale
de suivi de patients en milieu médicalisé. On procède par la suite à l’étude de la méthode de
localisation DV-hop qui est basée sur un calcul de nombre de sauts. On précise ses points de
faiblesse puis on présente notre approche fondée sur cette dernière avec une amélioration
importante afin de garantir une meilleure précision. L’étape suivante consiste à réaliser les
simulations et puis évaluer les performances de notre contribution. Le chapitre s’achève par
une comparaison et une analyse des résultats obtenus.
Notre travail s’achève par une conclusion résumant les points les plus importants déjà
mentionnés dans cette mémoire ainsi qu’une discussion des perspectives offertes par ce sujet.
Les microsystèmes électromécaniques et le domaine de communication sans fil ont subi une
évolution et un développement important qui a donné naissance à un nouveau type de réseaux qui
est le réseau de capteurs sans fil. Ce réseau est caractérisé par un grand nombre de micro-capteurs
à dimensions réduites employés d’une manière dense en intégrant des dispositifs de captages avec
un coût raisonnable. Ces micro-capteurs doivent être solides dans le but de pouvoir survivre dans
les mauvaises conditions de leurs endroits de déploiement. Dans ce chapitre on vise présenter le
réseau de capteurs sans fil, son architecture, ses applications qui sont très variées et les
contraintes et les défis rencontrés lors de sa réalisation.
Un capteur est un dispositif qui permet de transformer l'état d'une grandeur physique observée en
une grandeur qui va être utilisée. Généralement, le capteur est un élément qui sert à obtenir ou
acquérir une information issue de l’environnement extérieur. Il est l’élément de base des
systèmes d'acquisition de données de plus avoir une connaissance complète et précise sur un
milieu exige le déploiement de plusieurs capteurs [MDG’08]. Il existe différents types de
capteurs tels que les capteurs de pression, de débit, de distance, de sons, de température, de
lumière et de courant. Suite au développement des microsystèmes électromécaniques (MEMS)
une évolution au niveau des capteurs s’est produite. Elle s’agit de l’intelligence embarquée qui a
donné naissance au capteur intelligent (smart Sensor) qui présente un dispositif capable de
traduire, de mesurer, de traiter et de détecter les données collectées afin de les communiquer aux
autres composants du système où il est intégré. En outre, ce capteur est particulier car il est
caractérisé par l’intégration d’un organe de calcul interne comme un microcontrôleur ou un
microprocesseur embarqué dans son corps pour faire des traitements numériques aussi il se
caractérise par une capacité de communication bidirectionnelle car il reçoit des commandes
extérieures et les traite puis il transmet des informations de statut et des mesures.
Le capteur sans fil est constitué de trois unités alimentées par une batterie qui sont l’unité
d’acquisition, l’unité de traitement et l’unité de communication. En outre, selon les besoins du
domaine d’application on peut ajouter d’autres composants supplémentaires comme un
composant de mobilité afin de le rendre mobile, un générateur d’énergie et un système de
localisation (GPS) [DMH’05] [HEB’10].
Les mémoires : Un nœud capteur contient deux types de mémoires, une mémoire
volatile (RAM) utilisée pour faire le calcul et pour le stockage des données captées
lors du traitement et une mémoire non-volatile (ROM) pour le stockage des
applications et des algorithmes qui va être exécutés par le microcontrôleur, ces
mémoires sont caractérisées par des faibles capacités de stockage et des petites
tailles.
L’unité de communication : Elle est responsable des réceptions et des émissions de
données à travers un support de communication radio. Elle est constituée d’un
émetteur/récepteur et assure la communication entre les nœuds du réseau.
Source d’énergie : Elle est nommée aussi l’unité de contrôle d’énergie. Généralement, il
s’agit d’une batterie qui sert à alimenter les différents composants du nœud. Puisque sa
taille est réduite, la quantité d’énergie stockée dans cette batterie est très limitée et il est
difficile de la remplacer et parfois il est impossible soit à cause du coût soit à cause des
natures des endroits où se trouve le capteur.
Processeur Emetteur
Capteur CAN
Mémoire Récepteur
Les réseaux de capteurs sans fil (Wireless Sensor Networks (WSN) en anglais) se considèrent
comme une nouvelle technologie qui est apparue suite à des grands progrès technologiques dans
le domaine de développement des processeurs puissants, des protocoles de communication sans
fil et des capteurs intelligents. En fait, les évolutions techniques des communications sans fil et
des microsystèmes électromécaniques permettent la création de réseaux de capteurs comportant
un grand nombre de capteurs avec un coût raisonnable. Ils permettent d’apporter tant de solutions
pour la détection et la surveillance d’une zone ou un milieu de notre environnement avec une
meilleure précision. Ils présentent un type particulier de réseaux ad-hoc ou l’administration
centralisée et l’infrastructure de communication sont absentes. Un réseau de capteurs (RCSF)
contient un champ de captage composé de plusieurs micro-capteurs pouvant atteindre des
milliers. Il est constitué de deux types de nœuds qui sont les capteurs et le(s) puits (nœud
passerelle). La position de ces nœuds n'est pas nécessairement prédéterminée. Les capteurs
disposés aléatoirement forment la zone de couverture, ils agissent dans un espace appelé champ
de captage. Leurs rôle est le routage des informations relevées sur la zone de couverture vers le
point de collecte qui est le puits (en anglais sink). Ce dernier fait l’interface entre le champ de
captage et la machine. Il récupère les informations transférées par les différents capteurs et
permet leur transmission vers le centre de traitement (un ordinateur…). Il peut être connecté à
l'utilisateur du réseau qui va récolter les données captées via Internet ou un satellite afin de faire
une analyse et de prendre des décisions.
Réseau de type étoile à architecture centralisée : Les nœuds capteurs et les nœuds puits
sont voisins et la transmission des données se réalise point à point. C’est un réseau à un
seul saut.
Réseau multi-sauts : déployé dans le cas d’un réseau de grande échelle. La transmission
des données se fait des nœuds sources jusqu’à les nœuds puits et leurs acheminement est
assuré par des nœuds intermédiaires. C’est un processus qui impose un problème de
conservation de la durée de vie du réseau et de conservation d’énergie. Ce type de réseau
multi-saut qui est sans une infrastructure prédéfinie est composé essentiellement de
plusieurs nœuds collecteurs qui sont dispersés dans le champ de captage, d’un centre de
traitement de données et des nœuds puits.
Les nœuds collecteurs : chaque nœud est responsable de la collecte des données
relevées de sa zone de surveillance et il est chargé de leur routage vers le nœud
puits. Ces nœuds sont alimentés par des batteries.
Les nœuds puits : Ils sont un peu particuliers, ils doivent être toujours actifs car les
données arrivent aléatoirement c’est pour cela qu’ils ne présentent pas la même
contrainte d’énergie des nœuds collecteurs. Ils ont pour rôle l’acheminement des
données récupérées provenant des nœuds capteurs et ils assurent leur transfert vers
le centre de traitement. Le nombre des nœuds puits dépend de la charge du réseau
et de sa taille.
Le centre de traitement des données : Il facilite la récupération des données
provenant des nœuds puits et assure leur traitement afin d’extraire pour
l’utilisateur de l’information utile. Généralement, il est éloigné du réseau et une
passerelle doit être utilisée pour connecter ce dernier avec les autres types de
réseaux afin de transférer les données.
(Utilisateur)
La collecte de l’information dans un réseau de capteurs se réalise soit suite à une demande soit
suite à un évènement.
Lorsqu'on souhaite avoir l'état du champ de captage à un moment donné le puits émet des
broadcasts vers tout le champ pour que les capteurs remontent leur dernier relevé vers lui
et l’acheminement des informations se fait alors à l’aide d'une communication multi-sauts.
Requêtes
Puits
Champ de captage
Internet,
satellite
Utilisateur
Suite à un évènement :
Evènement
Puits
Champ de captage
Internet,
satellite
Utilisateur
Les réseaux de capteurs peuvent être constitués de plusieurs nœuds capteurs de types différents.
On site les capteurs thermiques, visuels, acoustiques, infrarouges, séismiques et radar qui ont
comme rôle de détecter et d’identifier un évènement, de contrôler les objets déclencheurs
d’évènements ou de surveiller tant de phénomènes tels que la pression, l’humidité, la
température, le taux de bruits, le mouvement des véhicules et d’autres caractéristiques comme le
volume et la vitesse d’un objet donné. Les micro-capteurs connectés à travers un réseau sans fil
permettent de réaliser plusieurs types d’applications qui appartiennent à une grande variété de
domaines [CGP’07]. Parmi ces domaines, on site le domaine environnemental, le domaine
médical, le domaine d’industrie, le domaine des transports et le domaine militaire.
a. Applications militaires
Un réseau de capteurs peut être employé dans un environnement sans infrastructure en domaine
militaire pour assurer la surveillance des troupes ou la détection des agents chimiques sur le
terrain [SFL’06]. Le déploiement rapide de ce type de réseau le rend une meilleure solution dans
ce domaine et une bonne approche pour les champs de bataille. Les applications militaires sont
variées. On cite le contrôle des équipements, de munition et des forces, la surveillance des zones
contaminées, le ciblage, la reconnaissance et la détection des attaques chimiques, biologiques et
nucléaires, la collecte d’informations sur la position de l’ennemie et l’estimation des dégâts.
La technologie des réseaux de capteurs sans fil présente un bénéfice pour plusieurs applications
d’environnements telles que le cheminement des mouvements d’animaux, la schématisation de la
On utilise le réseau de capteurs dans le domaine médical car il permet la surveillance des patients
à distance et le contrôle des données physiologiques humaines comme le rythme cardiaque et le
taux de glucose [JAS’10]. Il permet aussi de détecter le comportement des personnes âgées pour
qu’on puisse intervenir rapidement en cas de nécessité. En effet, on fait attacher au patient des
nœuds capteurs légers de petite taille capables de réaliser des tâches spécifiques telles que la
détection des battements de cœur et le contrôle de la pression du sang. D’autre part, des mini
capteurs vidéo peuvent être implantés sous la peau afin de recevoir des images d’une partie du
corps en temps réel sans chirurgie. Il sera donc possible de surveiller le rétablissement d’un
muscle ou la progression d’une maladie. Les capteurs sans fil sont utilisés non seulement pour la
surveillance des patients mais aussi pour la surveillance et le contrôle des médecins au sein de
l’hôpital, en plus ils peuvent être attachés aux médicaments pour les administrer afin de diminuer
la probabilité de donner des mauvais traitements aux patients et de minimiser les possibilités des
effets secondaires causés par l’utilisation des médicaments inappropriés. Le réseau de capteurs
est efficace dans le domaine médical car les micro-capteurs permettent une liberté de mouvement
aux sujets contrôlés et surveillés aussi une identification plus rapide de quelques symptômes aux
médecins.
Les nœuds capteurs peuvent être intégrés dans des appareils électroménagers tels que les fours
micro-ondes, les réfrigérateurs et les aspirateurs pour permettre à l’utilisateur de les contrôler
facilement à distance, c’est une automatisation des maisons. En outre, la technologie du réseau
sans fil peut nous aider à concevoir des environnements intelligents afin de les adapter aux
besoins des utilisateurs. En effet, les capteurs peuvent être intégrés dans les appareils et les
meubles pour constituer un système auto-configuré, adaptatif et auto-organisé.
e. Applications commerciales
Il y a plusieurs applications dans le domaine commercial parmi lesquelles on cite le contrôle des
stocks et des équipements en terme de climatisation, de chauffage, de ventilation et d’éclairage, la
surveillance de trafic et de l’état du matériel, le contrôle de la qualité du produit, le contrôle des
robots dans les environnements de fabrication automatiques, la surveillance et la détection des
vols de voitures, l’automatisation de l’usinage, le transport et la surveillance des fondations, des
structures et des bâtiments dans le domaine de génie civil.
Les nœuds capteurs et le puits utilisent une pile protocolaire qui contient cinq couches et trois
plans de gestion [AWY’02]. Elle comprend une couche physique, une couche liaison de données,
une couche réseau, une couche transport, une couche application, un plan de gestion des tâches,
un plan de gestion de mobilité et un plan de gestion d’énergie. Cette pile intègre les protocoles
réseau avec les données et fait une combinaison de la gestion d’énergie et du routage. Elle
communique via un support sans fil d’une manière efficace et favorise les efforts de collaboration
entre les capteurs. On peut construire et utiliser des logiciels d’applications de types différents
dans la couche application. Cette couche est gérée directement par ces logiciels et elle présente le
niveau le plus proche de l’utilisateur. La couche physique assure la génération, la sélection du
canal et une simple modulation mais aussi robuste et elle répond aux besoins de techniques de
réception et de transmission des paquets de données. La couche réseau assure l’acheminement
des données que la couche transport fournit. Elle trouve le chemin le plus favorable de point de
vue coût, énergie et temps. La couche liaison de données sert à faire un contrôle d’accès au canal
radio et un multiplexage des données. Le contrôle et le transport des informations sont réalisés
par la couche transport qui assure le découpage des paquets, le contrôle de flux, la gestion des
erreurs lors de la transmission, l’assemblage des paquets et la conservation de leurs ordres. De
plus, les plans de gestion de mobilité, d’énergie et de tâches s’occupent de la surveillance de la
consommation d’énergie, de la répartition des tâches et des mouvements des nœuds capteurs et
les gèrent. Ils aident ces nœuds à minimiser la consommation d’énergie et à faire une
coordination des tâches de détection afin d’avoir un routage efficace.
Collecte, Compression,
Couche application
Agrégation, Codage ….
La conception des réseaux de capteurs sans fil est guidée par plusieurs contraintes. Ces facteurs
influencent la conception des algorithmes et des protocoles de ces réseaux ainsi que la conception
de leurs nœuds. Parmi ces contraintes on cite la topologie dynamique du réseau, la tolérance aux
approche consiste à réaliser une agrégation au niveau des nœuds capteurs intermédiaires
pour minimiser la consommation d’énergie afin de prolonger la durée de vie du réseau. En
effet, le nombre de messages échangés peut être réduit en introduisant des points
d’agrégation dans le réseau. Normalement, ces points sont des nœuds réguliers capables
de recevoir des données qui proviennent des nœuds voisins puis de les transmettre au
prochain saut après qu’elles soient filtrées. Pareillement, un type de regroupement
(clustering) peut être appliqué. C’est un regroupement des nœuds employé afin de réduire
la consommation d’énergie.
L’environnement : Souvent, les capteurs sont employés dans des endroits comme les
champs de bataille, l’océan, à l’intérieur des machines et dans les champs chimiquement
ou biologiquement souillés donc ils doivent pouvoir résister aux conditions présentées par
ces endroits (forte température, humidité, forte pression…) et il faut qu’ils fonctionnent
sans surveillance dans des zones géographiques éloignées.
Coût de production : Les réseaux de capteurs sans fil sont généralement composés d’un
nombre de capteurs très important qui peut atteindre des millions c’est pour cela que les
fabricants doivent assurer un coût de production acceptable (le coût de fabrication ne
dépasse pas 1$ pour un nœud).
Tolérance aux pannes : Le réseau de capteurs doit être capable de maintenir et de
conserver ses fonctionnalités sans interruptions dues à la défaillance d’un ou de plusieurs
capteurs. En fait, ces derniers peuvent engendrer des erreurs et dans des cas ils ne peuvent
pas fonctionner à cause de quelques problèmes tels que le manque et la perte d’énergie,
l’interférence de l’environnement (chaleur, pluie..) ou d’un agent destructif (animal…) et
les dommages physiques. Le degré de la tolérance dépend des données échangées et de la
nature de l’application et de son degré de criticité.
Durée de vie limitée : Le fonctionnement des nœuds capteurs se déroule dans des zones
géographiques distantes sans surveillance c’est pour cela que le recharge ou le
remplacement de leurs batteries est impossible. On peut dire que la durée de vie des
capteurs est limitée par la contrainte d’énergie.
Contrainte d’énergie : Le facteur le plus critique dans le réseau de capteurs sans fil est
l’énergie. C’est une contrainte clé dans ce réseau. Elle détermine sa durée de vie puisque
les ressources énergétiques d’un nœud capteur sont limitées et faibles ainsi que la
Les travaux de recherches réalisés sur les réseaux de capteurs sans fil ont montré qu’on peut
confronter plusieurs défis [RSN’00], parmi lesquels on cite :
Localisation : Pour réaliser certaines applications des réseaux de capteurs sans fil comme
la détection des feux et le repérage des cibles, il est nécessaire de savoir les positions des
nœuds capteurs responsables de la détection de ces évènements pour assurer une
intervention dans le temps et le lieu convenables. La localisation est influencée par des
contraintes comme la modification de la topologie et l’absence d’infrastructure donc il
faut concevoir des algorithmes économes et fiables afin de garantir une localisation
efficace tout en minimisant la consommation d’énergie.
Efficacité énergétique : Les capteurs possèdent des ressources énergétiques limitées
(batterie). La maîtrise de ces ressources se fait par la gestion et la minimisation de la
consommation d’énergie qui présente un facteur critique dans le réseau de capteurs sans
fil. Ce facteur nous aide à préciser la durée de vie du réseau c’est ainsi qu’il est très
important d’optimiser l’énergie afin de pouvoir étaler et prolonger cette durée [RAK’09].
Sécurité : Les réseaux de capteurs sans fil connaissent une large utilisation dans
différents types d’applications ce qui nécessite et exige une grande sécurité. Cette sécurité
des communications est un domaine intéressant pour les chercheurs afin de faciliter le
transfert de données sans avoir des modifications ou des interceptions et pour assurer une
protection efficace contre les différentes attaques possibles dans le but d’obtenir un réseau
fiable et protégé.
Routage : Il s’agit de l’acheminement des données sortant des nœuds sources jusqu’aux
nœuds puits. Ces données sont transmises à travers un chemin multi-sauts pour atteindre
leurs destinations. Il faut donc trouver le chemin le plus court et optimal et choisir des
algorithmes de routage les plus efficaces afin d’assurer le routage des données en
respectant les contraintes d’énergie et du délai de transfert des paquets.
VII. Conclusion
Dans ce chapitre nous avons présenté une étude sur les réseaux de capteurs sans fil nécessaire à la
compréhension du reste du contenu du rapport. Nous avons cité quelques concepts de base tels
que la définition et le principe de fonctionnement de ce réseau, l’architecture adoptée, les
contraintes et la pile protocolaire. En outre, nous avons énuméré quelques applications réalisées
en utilisant les capteurs sans fil. On vise dans le chapitre qui suit présenter les domaines de la
localisation et de la géolocalisation en étudiant leurs différentes techniques capables de nous
donner une bonne précision.
Les avancées récentes dans la radio et les systèmes embarqués ont permis la prolifération des
réseaux de capteurs sans fil. Ces derniers sont énormément utilisés dans des différents
environnements de manière aléatoire pour exécuter de diverses tâches de surveillance telles que
la recherche, la délivrance, le secours en cas de catastrophe, la poursuite des cibles et un certain
nombre de tâches dans les environnements futés. Dans beaucoup de telles tâches, la localisation
des nœuds est intrinsèquement l’un des paramètres du système. Cette localisation est tenue de
signaler l’origine des évènements, aider le groupe de requêtes des capteurs, le routage et de
répondre aux questions sur la couverture du réseau. Ainsi, l’un des défis fondamentaux dans le
réseau de capteurs sans fil est la localisation des nœuds. Généralement, elle conditionne le bon
fonctionnement des applications. On peut ainsi distinguer tant de méthodes afin d’assurer
l’implémentation du processus de localisation. Le but de ce chapitre est de présenter le principe
de la localisation et les différentes techniques de positionnement qui peuvent être classés en
différentes catégories. Il résume aussi leurs avantages et leurs inconvénients. Ces techniques ne
s’adaptent pas à tous les milieux. Dans ce contexte, nous citons les systèmes de localisation à
l’intérieur et à l’extérieur et leurs caractéristiques. A la fin de ce chapitre, nous donnons les
différences entre les méthodes de localisation qui va nous aider par la suite à bien choisir
l’approche convenable pour satisfaire nos besoins.
Généralement, les réseaux de capteurs sans fils sont employés d’une manière aléatoire en utilisant
la communication multi-sauts. De ce fait, il est nécessaire de connaître les positions des nœuds
capteurs dans leur champ de déploiement pour une majorité des applications afin de pouvoir
préciser l’origine des évènements détectés [YAD’08]. La localisation consiste à préciser et à
déterminer les coordonnées géographiques des capteurs sans fil. Elle est importante car elle
permet de développer des protocoles et des algorithmes de routage et des applications de suivi
des cibles. Elle assure aussi une amélioration de la sécurité dans le cas des applications de
surveillance [CYR’09]. C’est un outil de contrôle des nœuds qui contient trois phases. On définit
un système de coordonnées dans la première phase pour déterminer les positions des nœuds
ensuite la deuxième phase consiste à estimer des distances et dans la troisième on utilise un
algorithme de localisation.
1. Localisation à l’extérieur
Le GPS (Global Positioning System) est un système de localisation qui est le plus populaire
parmi les systèmes de positionnement mondial par satellites. Il est totalement opérationnel et
disponible partout. En fait, avec un GPS on peut connaître à tout moment n’importe quel
emplacement sur la planète et on peur enregistrer ou créer la position des lieux. Il est chargé de
la couverture de toute la terre par une constellation comportant au moins 24 satellites qui orbitent
à une altitude de 20200 km. [SGP’00] Il présente un réseau de satellites capable d’émettre des
informations codées en permanence. Ces informations permettent l’identification des positions
géographiques sur terre avec précision en mesurant la distance des satellites. Le système GPS
offre tant d’applications en mer, dans les airs ou sur terre. En effet, Il est utilisé dans
l’aéronautique pour l’aviation commerciale, postale, militaire ou générale. En mer, il est employé
pour la pèche, la navigation de plaisance ou les courses. Les applications terrestres qui sont très
nombreuses nécessitent l’utilisation de ce système pour sa meilleure fiabilité et précision. Le
nombre de satellites qui sont disponibles permet de le rendre précis, opérationnel, fiable et en
permanence. On peut profiter du GPS pour la conservation de la trace de la route parcourue et des
données relevées lorsqu’on pratique un sport ou une activité. Ainsi, on peut trouver la bonne
route, savoir la bonne direction et la vitesse précise et on peut mémoriser les performances et les
données. Les satellites GPS sont distribués sur six orbites et chaque orbite contient quatre
satellites GPS. C’est un système satellitaire qui produit des informations en continu aux
récepteurs GPS. Il est constitué de trois parties distinctes nommées segments qui sont le segment
spatial, le segment de contrôle et le segment utilisateur.
contrôle. Cette dernière met à jour et corrige les informations reçues puis les renvoie aux
satellites à travers deux antennes placées sur deux autres sites.
Le segment utilisateur : Il s’agit des utilisateurs militaires ou civiles qui reçoivent et
exploitent les informations provenant des satellites via un récepteur GPS. Ce segment
regroupe la police, la gendarmerie et les utilisateurs militaires (armée de terre, marine …)
et dans le domaine civil il regroupe les pilotes, les navigateurs maritimes, les pécheurs, les
sportifs, les chasseurs, les conducteurs d’engin, les randonneurs etc.…
Pour élaborer son travail, le récepteur GPS doit savoir deux choses essentielles qui sont la
distance à laquelle se trouvent les satellites et leurs positions [SGP’00]. Après avoir reçu l’onde,
ce récepteur fait une mesure de son temps de propagation et ainsi un calcul de la distance lui
séparant du satellite. Cette opération va être répétée pour les autres satellites en vue. Après avoir
connu les distances entre elles et le récepteur, on peut calculer et déterminer la position par
triangulation. Pour la détermination d’un point on nécessite trois satellites et pour avoir un
emplacement en 3D on a besoin de quatre satellites. Dans la vie quotidienne on trouve les
récepteurs GPS dans plusieurs objets tels que le téléphone portable, l’appareil photo et
l’automobile et dans des appareils qui sont plus spécialisés comme le robot d’exploration et le
GPS de randonnées.
L’emploi des GPS a une limite notamment dans les milieux où la réception des signaux des
satellites est impossible comme par exemple dans les grottes, le parking, les villes aux rues
étroites ou à l’intérieur de quelques bâtiments. Il est disponible en extérieur et si le champ de vue
des récepteurs n’est pas obstrué par des obstacles. Le GPS est particulièrement coûteux et surtout
dans le cas d’un réseau contenant un nombre très important de capteurs. De plus, la
consommation d’énergie sera élevée lors de la réception du signal. Par conséquent, ces problèmes
limitent l’utilisation du système GPS dans les réseaux de capteurs sans fil.
satellites. Les facteurs d’erreur sont ainsi transmis au récepteur de DGPS afin d’assurer la
correction de ses propres calculs et mesures de positions.
Le principe de cette technologie est de localiser un véhicule ou une personne équipée d’une puce
GSM (en anglais Global System for Mobile communications) par la station de base qui est la plus
proche de sa position ou plus précisément en réalisant une triangulation à l’aide d’antennes
proches [DGS’00]. Les stations de base échangent des signaux avec des mobiles nommés cellules
radio, situés dans leurs champs de couverture radio. La zone de couverture d’une cellule (Cell-
ID) est distinguée par les opérateurs qui savent ainsi préciser approximativement la position d’un
utilisateur (en milieu urbain quelques centaines de mètres et jusqu’à plusieurs kilomètres dans les
milieux ruraux).
2. Localisation à l’intérieur
La localisation est une technique qui assure la détermination des emplacements géographiques
des individus à travers leurs équipements mobiles ou des éléments équipés d’un appareil
spécifique. Elle présente un domaine de développement et de recherche très intéressant. Dans le
but de positionner un objet on utilise souvent les liaisons radio tout en effectuant l’analyse de
quelques paramètres comme le temps de propagation, les niveaux des signaux reçus et l’angle de
réception. Les deux critères essentiels responsables de la caractérisation d’une localisation sont la
fiabilité et la précision. Cette dernière peut être définie à travers trois aspects qui sont la finesse,
la sensibilité de mesure et la justesse. En particulier, la localisation en intérieur (nommée aussi la
localisation indoor) correspond au positionnement dans des milieux intérieurs tels que les
bâtiments [HPJ’07]. Ces milieux sont à difficultés car ils génèrent beaucoup de gênes, afin de
réaliser une localisation précise, à cause des objets qui bloquent les voies de transmission. En
effet, leur topographie présente plusieurs obstacles qui empêchent la propagation des ondes
(réflexions, diffraction, atténuations…) donc l’estimation d’une position précise semble
complexe et inaccessible. L’apparition des nouveaux réseaux de capteurs sans fil est parmi les
solutions à examiner pour assurer une localisation à l’intérieur des bâtiments. Pour effectuer cette
localisation il y a deux approches différentes qui peuvent être appliquées, soit le capteur regarde
son environnement et réalise par lui-même son positionnement soit il ne se localise pas
immédiatement et la localisation se réalise alors par les autres éléments appartenant au réseau.
Afin d’explorer la notion de la localisation en intérieur, plusieurs techniques et systèmes de
positionnement sont mis en place. Les principales techniques reposent sur les signaux radios
(Bluetooth, RFID, UWB, Wifi…), les signaux infrarouges (WIPS, Active Badge…), la lumière
visible, les capteurs embarqués (baromètres, MEMS…) et les signaux acoustiques (Active Bat,
Cricket…). Les systèmes de localisation peuvent alors être classifiés selon le support de
transmission utilisé dans trois grandes catégories qui sont l’Infrarouge (IR), La Radiofréquence
(RF) et l’Ultrason (US).
a. RFID
C’est l’identification par radiofréquence qui est basée sur la recherche à distance, l’extraction et
le stockage des données et de l’information ce qui exige la présence d’un lecteur RFID, d’une
étiquette (tag ou transpondeur) et d’une base de données. En fait, elle désigne la reconnaissance
d’objets et même des personnes par transmission radiofréquence [FRE’07]. Un système RFID
contient un lecteur (interrogateur) qui transmet un signal vers une étiquette radio ou plus placées
dans son champ de lecture selon une fréquence déterminée. Il s’agit d’un émetteur-récepteur qui
assure la communication avec l’étiquette correspondante par des ondes électromagnétiques. Cette
dernière est conçue de recevoir un signal radio puis de renvoyer immédiatement un autre signal
en réponse contenant une information pertinente. Afin d’effectuer l’échange des données, un
dialogue s’établit entre ces deux composants à l’aide d’un protocole de communication. Les
étiquettes sont des petits objets qui peuvent être incorporés ou collés dans des produits ou
implantés dans des êtres vivants comme les animaux ou le corps humain. Elles comprennent une
antenne liée à une puce électronique et cette antenne leur permet de répondre aux requêtes émises
depuis le lecteur. La technologie RFID s’implante dans les secteurs commerciaux, industriels et
militaires. En outre, son utilisation s’étend progressivement aux domaines de traçabilité et de
sécurité dans le but de répondre à un nombre important de besoins. En localisation, il est
nécessaire que la RFID soit active ce qui signifie que l’étiquette doit être alimentée à l’aide d’une
batterie (pile interne). L’étiquette active est capable d’émettre les informations par elle-même.
Elle est toujours équipée d’une source d’énergie capable de la rendre indépendante.
Active Badge est un système qui fournit un moyen de localisation des personnes à l’intérieur des
bâtiments. Il a été pensé, prototypé et introduit entre 1989 et 1992. Il est parmi les premiers
systèmes de localisation et il exploite la technologie infrarouge. Il assure cette localisation par la
détermination de la position de ce petit appareil nommé le badge actif [FRE’00]. En effet, chaque
individu est équipé d’un badge infrarouge avec une portée de 6 mètres et émettant toutes les 10
secondes un unique signal. Toute la zone intérieure est divisée en plusieurs cellules qui sont
équipées d’un grand nombre de capteurs reliés entre eux afin de former un réseau permettant la
détection du badge actif. Ces récepteurs assurent la collection des signaux infrarouges transmis
par les badges. La position d’un badge se détermine alors à l’aide de l’emplacement du récepteur
qui est le plus proche. Ce système confronte tant de problèmes tels que la limitation de la portée
du signal infrarouge et le problème des points morts lorsqu’on trouve des zones où il n’existe pas
une bonne réception infrarouge. De plus, les performances de ce système se dégradent à cause de
la lumière blanche ou la lumière du jour. En fait, la présence de cette lumière est un frein à
l’évolution de la technologie infrarouge car elle perturbe la transmission entre les émetteurs et les
récepteurs.
Il s’agit d’un système qui fonctionne d’une manière semblable à celle du badge actif mais au lieu
d’employer des impulsions infrarouges, un message radio et une impulsion ultrasonore sont émis
par un transmetteur en même temps et d’une façon périodique [CML’07]. Ce système de
localisation offre une précision en centimètres. Il est basé sur le principe de trilatération et il
s’appuie sur plusieurs récepteurs à ultrasons situés dans le plafond et reliés à l’aide d’un réseau à
haute vitesse. On peut calculer l’orientation d’un objet si on trouve les positions relatives des bats
qui lui sont attachés. En outre, on peut déduire des informations sur la direction d’un individu
même s’il porte seulement un bat, par l’analyse du modèle des récepteurs qui ont détecté les
signaux ultrasoniques de cet émetteur et aussi de la force de ces signaux.
De nos jours, il existe des différentes techniques de localisation et toutes ces techniques ne
s’adaptent pas à tous les milieux. Le GPS s’impose sur les marchés de positionnements dans les
environnements outdoor (en extérieur). On peut atteindre des exactitudes à quelques mètres près
dans ces milieux et il paraît assez difficile d’effectuer la mise en place d’un système aussi
performant capable d’allier une large couverture avec une telle précision en même temps. Les
systèmes satellitaires se sont imposés comme étant les systèmes de localisation à l’extérieur.
Cependant, des fortes contraintes en terme de précision existent lors du calcul des déformations
de quelques architectures comme les barrages par exemple alors il est nécessaire dans ce cas de
mettre en place des systèmes de positionnement particuliers. Pour cette application, quelques
systèmes à base de GPS sont réalisés (système DGPS). Les environnements où le système GPS
ne peut pas fonctionner naturellement sont les milieux de type indoor. Malgré l’existence des
techniques d’amélioration de la qualité des signaux lors de la réception pour ce système GPS, les
performances ne répondent pas aux exigences et aux nécessités des applications qui requièrent
toujours une exactitude à la pièce près. Il existe des systèmes qui proposent une couverture
indoor au niveau de la localisation mais généralement leurs mise en œuvre est complexe. Leur
installation s’avère relativement coûteuse car il est nécessaire de placer de nombreux capteurs. La
couverture de ces derniers est parfois très restreinte. Ainsi, la localisation à l’intérieur est
considérée comme la plus difficile pour diverses raisons et l’inconvénient de ses techniques est
fréquemment leur faible couverture. En effet, les signaux GPS ne sont pas accessibles à proximité
des immenses structures ou à l’intérieur des bâtiments. En outre, il y a un problème lié à la nature
des milieux de déploiement (présence d’obstacles, comportement du canal radio…..) et des
problèmes liés à la nature des applications dédiées et leurs exigences en termes d’exactitude et de
précision de localisation.
De nos jours, le réseau de capteurs sans fil présente un sujet de recherche mondiale. Il est
intéressant en raison de ses vastes applications telles que la surveillance de l’environnement et les
soins médicaux. Pour ces applications, le positionnement des équipements mobiles est une
problématique importante puisqu’il conditionne fréquemment leur bon fonctionnement. On peut
La localisation centralisée est principalement basée sur le recueil des informations (distances,
signal, voisins…) par les nœuds capteurs à partir de leur environnement, puis la transmission de
ces données à une station de base afin de les analyser. En fait, le processus de cette localisation
s’effectue à l’aide d’une machine centrale qui est très puissante de point de vue performances de
calcul et de traitement et ressources énergétiques. Cette unité estime les distances, détermine les
positions puis les transmet aux nœuds. Les algorithmes centralisés contournent la limitation des
ressources des nœuds (calcul, traitement et stockage…) tout en acceptant des coûts très élevés des
communications de déplacement des informations vers la machine centrale. Après l’augmentation
de la taille du réseau, ces algorithmes deviennent plus complexes et très coûteux car cet
accroissement épuise les nœuds les plus proches de la station centrale qui subissent un nombre
très important de communications. De plus, ils exigent le déploiement d’une station de base
suffisamment puissante parmi les nœuds, mais ceci n’est pas constamment possible. Si c’est
possible, on peut résoudre la difficulté de la mise à l’échelle en utilisant plusieurs stations de
base.
MDS-MAP :
Dans ce cas, les opérations de calcul sur les différents nœuds constituant le réseau sont réalisées
par les capteurs eux-mêmes [AMP’10]. Tous les nœuds et leurs voisins communiquent ensemble
afin d’estimer les distances et ils assurent l’échange des informations de voisinage (angle
estimée, connectivité, distance) dans le but de dériver leurs positions de façon distribuée. Par
conséquent, chaque nœud doit savoir sa propre position et déterminer les emplacements de ses
voisins à la fin de la localisation et ce sans la contribution d’aucune unité centrale qui effectuerait
les calculs. Il apparaît que l’emploi de certains nœuds nommés ancres permet d’extrapoler les
positions des nœuds. Ainsi, les algorithmes distribués assurent la localisation directe des nœuds
dans le repère de coordonnées global établies par les positions des ancres. Ces algorithmes ne
sont pas complexes c’est pour cela la méthode distribuée est utile dans le cas des réseaux à
grande échelle car elle permet d’éviter une forte consommation de ressources énergétiques alors
que les méthodes centralisées nécessitent trop de communication pour le routage des
informations d’un nœud à l’autre jusqu’à l’unité centrale. On peut classer la localisation
distribuée en trois catégories :
Algorithme distribué basé sur des ancres : C’est un algorithme qui commence par
effectuer des estimations de distance à certaines ancres en utilisant un certain groupe de
nœuds et d’ancres dans le réseau, ensuite il exploite ces mesures pour préciser leur
propre position.
Algorithme distribué basé sur la relaxation : Des algorithmes distribués bruts sont
utilisés par cette méthode afin de localiser approximativement les nœuds du réseau. Ils
sont suivis par l’étape de raffinement chargée d’impliquer chaque nœud typiquement
dans le but d’ajuster leurs positions afin d’approcher la solution optimale.
Algorithme distribué basé sur un repère de coordonnées de points : Dans ce cas, le
réseau est réparti en sous régions de recouvrement de petites tailles. Chacune de ces
régions est chargée de faire la création d’une carte optimale locale puis ces cartes seront
fusionnées en une seule carte qui sera globale.
Ces méthodes assurent l’estimation des distances entre les nœuds et ensuite la dérivation de leurs
positions à partir de ces distances. En effet, ces techniques exploitent des informations sur les
angles ou les distances afin de déterminer les emplacements des nœuds. Ces données peuvent être
obtenues en utilisant des métriques telles que TOA, AOA, TDOA et RSSI. Les méthodes range-
based se caractérisent par une résolution fine. En revanche, elles ont besoin de quelques
matérielles supplémentaires ce qui cause l’augmentation du coût économique et opérationnel du
réseau. En fait, elles comprennent essentiellement deux étapes. [ASJ’08] La première présente
une étape d’estimation de distances et la deuxième consiste à faire une dérivation des positions
inconnues à partir des données obtenues pendant la première étape.
Cette phase se caractérise par la communication des nœuds les uns avec les autres et par la
collection des différents indicateurs de qualité. Le hardware radio peut nous informer sur le signal
entre deux nœuds. En outre, il peut nous rapporter plusieurs caractéristiques concernant le signal
radio, à partir desquelles il sera possible d’estimer les distances qui séparent les nœuds. Plusieurs
techniques sont développées afin d’assurer les estimations des distances séparant les nœuds
voisins. Il existe celles qui se basent sur les dispositifs radio telle que la méthode de l’indication
de la puissance du signal reçu (RSSI ou Received Signal Strength Indication en anglais) et celles
qui s’appuient sur l’emploi d’autres matériels (microphones) telle que la méthode de la différence
entre les temps d’arrivée de deux signaux (TDoA ou Time Difference of Arrival en anglais) et
celle qui assure l’estimation de l’angle d’arrivée du signal (AoA ou Angle of Arrival en anglais).
RSSI :
Cette méthode propose une solution pour estimer les distances dans un réseau de capteur sans fil.
Au niveau du récepteur, RSSI effectue une mesure de la puissance du signal et elle se base sur
l’approximation de la puissance lors de la transmission (communication). [XNT’03] En fait, la
puissance de réception et d’émission d’un signal peut être exploitée afin d’obtenir la distance
séparant deux capteurs. Il sera possible de conclure les pertes dues aux propagations des ondes
radio et ensuite on pourra traduire ces pertes en une estimation de distance tout en s’appuyant sur
des modèles empiriques et théoriques. RSSI a été employée principalement dans les cas des
signaux RF. Cette méthode n’est pas aussi bonne en terme de performance que d’autres
techniques. Elle est très sensible au bruit et aux interférences car des obstacles physiques comme
les meubles et les murs reflètent et causent l’absorption des ondes radio. D’autre part, cette
solution a un avantage principal qui est son faible coût. En théorie, la puissance d’un signal radio
diminue avec la distance entre l’émetteur et le récepteur. En effet, il est possible de déterminer la
distance entre deux nœuds par la formule suivante :
(II.1)
Avec :
Cette technique suppose que les nœuds appartenant au réseau sont synchrones. On peut déduire la
distance entre deux capteurs à partir de la vitesse de diffusion du signal et aussi de la différence
entre la date d’émission et la date de réception du message. Dans le cas du non synchronisation
des nœuds, il est nécessaire d’envoyer un message aller-retour pour pallier à ce problème. La
méthode ToA est fondée sur des mesures précises et exactes des instants de réception et de
transmission des signaux entre deux nœuds. On utilise ces mesures pour estimer la distance en
s’appuyant sur la vitesse de propagation et sur le temps alloué pour le traitement du signal reçu.
Par conséquent, il faut que les horloges des nœuds soient strictement synchronisées afin d’avoir
des mesures précises. De ce fait, à l’émission d’un signal par un nœud à l’instant t1 et s’il est reçu
à l’instant t2 par un nœud voisin, la distance qui les sépare peut être exprimée comme suit :
Avec D est la distance estimée et v présente la vitesse de propagation dans le milieu considéré.
La technique ToA impose donc l’emploi du matériel très précis dans le but de mesurer le temps
réel d’émission et de réception des signaux car même une petite erreur peut entraîner des
problèmes à cause de la vitesse importante de propagation. Cette vitesse dépend de quelques
facteurs qui sont liés à l’environnement comme la pression, la température et l’humidité et cela
peut affecter l’exactitude de mesures.
La technique TDoA n’est pas fondée seulement sur le signal radio et elle requiert d’autres
matériels. En fait, chaque nœud doit être équipé d’un microphone et d’un haut-parleur. Certains
systèmes utilisent des fréquences audibles alors que d’autres emploient les ultrasons. L’utilisation
de ces types de signaux présente une solution du problème de synchronisation des horloges qu’on
peut le rencontrer avec la technique ToA. [MUA’97] La méthode TDoA est similaire à cette
dernière car elle s’appuie aussi sur le temps de propagation des signaux entre les nœuds. Elle est
basée sur la différence des temps d’arrivée de deux signaux qui se propagent avec des différentes
vitesses. Son inconvénient majeur est qu’elle exige des matériels spéciaux et supplémentaires en
particulier un microphone et un haut-parleur ce qui cause une consommation d’énergie plus
élevée. En outre, les vitesses de propagation dépendent de quelques facteurs environnementaux
comme l’humidité et la température de l’air et cela présente un problème d’inexactitude lors de
l’estimation des distances. Par contre, cette technique assure l’obtention d’une précision très
importante. Plusieurs algorithmes l’utilisent car elle est plus précise que les autres méthodes
basées sur la radio.
Cette méthode assure la définition d’une direction (angle) entre deux nœuds capteurs [RPM’06].
Chaque capteur est équipé d’antennes orientées d’une manière qui favorise la détermination de
l’angle formé avec un voisin lors de l’envoi d’un signal par ce dernier. L’angle est généralement
recueillie par un ensemble de microphones en plus que la radio ce qui permet à un nœud
récepteur de spécifier sa direction par rapport au nœud émetteur. Il est aussi possible de la
recueillir à l’aide d’une communication optique. Dans cette méthode, on a besoin d’un nombre de
microphones spatialement séparés qui sont capables d’entendre un seul signal émis. En effectuant
une analyse de la différence entre les instants d’arrivée du signal à ces différents microphones, la
découverte de l’angle d’arrivée de ce signal sera possible. [PHY’05] Généralement, la technique
AoA fournit des résultats plus précis que la technique de localisation basée sur le RSSI.
Malheureusement, elle nécessite plus de matériels (plusieurs microphones et un haut-parleur) que
la méthode TDoA donc le coût est plus important dans ce cas et la taille des nœuds augmente et
ils tendent à être volumineux. Il y a peu d’algorithmes qui sont basés sur cette technique même
s’il existe plusieurs d’entre eux qui sont capables de l’employer lorsqu’elle est présente.
La précision des mesures déterminées à l’aide de ces techniques varie selon plusieurs paramètres
environnementaux (degré d’humidité, vitesse du vent, obstacles….). Ces paramètres ont un
impact sur les mesures d’angles et de distances. Par exemple, les méthodes AoA ou RSSI sont
fortement déconseillées à l’intérieur des milieux fermés. Une évaluation de ces méthodes est
donné à partir le tableau Table 1 [STP’10].
Le but de la phase de dérivation des positions est de trouver les emplacements des nœuds qui
respectent les distances inter-nœuds estimées de la meilleure façon. Par la connaissance des
positions de quelques nœuds appartenant à un réseau de capteurs dans un certain repère de
coordonnées, les emplacements des autres nœuds peuvent être trouvés dans ce système. En effet,
une fois les informations utiles comme les données de connectivité, les distances ou les angles
estimés et les coordonnées des nœuds sont collectées, il devient possible de déterminer les
emplacements inconnus des nœuds ordinaires en utilisant une technique de dérivation de
positions choisie parmi les différentes méthodes disponibles telles que la triangulation, la
multilatération et la trilatération.
La triangulation :
Cette technique est employée lorsque la direction d’un nœud est estimée à la place de sa distance
pareillement aux systèmes AoA. Les emplacements des nœuds se calculent dans ce cas par
l’emploie des lois de trigonométrie des cosinus et sinus. [STP’10] La triangulation est une
méthode géométrique qui permet de préciser la position d’un point. En effet, deux nœuds connus
et un autre nœud de position inconnue forment un triangle et par la connaissance des deux angles
que leurs sommets sont présentés par les premiers nœuds en plus que la distance qui les sépare il
sera possible de spécifier l’emplacement du troisième sommet. On peut utiliser des simples
relations trigonométriques et les angles nécessaires peuvent être obtenus en employant la
technique AoA. Dans le cas de la triangulation en deux dimensions, il est nécessaire de connaître
trois nœuds. En fait, l’estimation de la distance avec un seul nœud se fait par rapport à un point
connu donc on aura une infinité de positions acceptables. Avec deux nœuds connus, cette
incertitude est limitée à deux points. On parvient donc à estimer l’emplacement exact avec trois
nœuds. La situation réelle met en œuvre trois dimensions. En connaissant un nœud, on aura
comme position probable l’ensemble des points appartenant à la sphère dont le centre est ce
nœud. En connaissant un deuxième nœud, l’incertitude peut être réduite à un cercle. Par la
connaissance de trois nœuds, on aura deux points possibles et avec quatre nœuds on aura un seul
point. On utilise dans la pratique un cinquième point pour assurer la réduction de l’incertitude le
maximum possible. Le GPS fonctionne en employant la triangulation. Il peut ainsi fournir la
position du récepteur à des centimètres près de son emplacement exact. Il nécessite la présence
d’au moins trois satellites en action afin d’obtenir un point précis et de pouvoir recevoir
correctement ses coordonnées. Dans le cas de deux stations de base Rx2 et Rx1, les angles
d’incidence des trajets qui proviennent de l’objet mobile sont donnés par α et β.
(II.3)
La trilatération :
C’est une méthode mathématique qui utilise la géométrie des triangles afin de préciser la position
d’un point d’une manière relative et son principe de localisation se fonde sur la détermination de
l’intersection de trois cercles. [STP’10] Contrairement à la triangulation qui s’appuie sur les
distances et les angles pour positionner un point, cette technique suppose qu’on connaît un
ensemble de triplets associés à des ancres qui représentent des nœuds de références. Dans ces
triplets (x, y, d) les deux termes x et y sont les coordonnées des ancres et la distance estimée est
représentée par d. Pour préciser une position en deux dimensions, il est nécessaire d’avoir au
moins trois ancres qui sont non colinéaires. La position inconnue sera alors l’intersection des trois
cercles ayant comme centres les ancres et leurs rayons sont les distances de séparations. Afin de
déterminer sa position relative, les coordonnées d’un objet mobile Tx sont exprimées en fonction
des coordonnées et des distances connues des différents points de réception et elles sont données
par :
(II.4)
La multilatération :
Cette approche s’appuie sur le fait que s’il y a une possibilité que deux nœuds se communiquent
entre eux alors la distance qui les sépare est inférieure à Rc avec forte probabilité. Rc représente
le rayon de communication et il est la portée de la communication maximale des radios pour
n’importe quelle force de signal. Ainsi, les simples informations sur la connectivité peuvent être
utiles afin d’estimer les distances. Un moyen pour déterminer les distances séparant les nœuds est
d’employer la technique du nombre de sauts (hop count). Les données sur la connectivité locale
produites par la radio définissent un graphe non pondéré dans lequel les arêtes symbolisent les
liaisons radio directes et les sommets représentent les nœuds capteurs. En gardant l’allure des
chemins d’un nœud vers les autres nœuds d’un réseau, l’estimation de distances se fait en
calculant le nombre de sauts à travers le trajet le plus court.
A-B : 12
3 sauts
C’est une approche qui s’appuie sur l’exploitation de la proximité des nœuds ordinaires aux
autres nœuds appelés ancres. Ainsi, il existe quelques algorithmes de proximité qui sont robustes
et simples. On cite l’exemple de l’algorithme Centroid qui définit l’emplacement d’un nœud
inconnu comme étant le barycentre (le centre de gravité) des ancres qui sont capables de se
communiquer avec lui. Les méthodes de localisation qui se basent sur la proximité sont efficaces
dans les cas où les nœuds sont limités au niveau de la puissance de calcul. La précision de cette
technique n’est pas toujours très élevée et particulièrement lorsqu’il n’existe pas un grand nombre
d’ancres et aussi dans le cas où ils sont inégalement répartis.
Le fonctionnement de ces méthodes exige la connaissance des positions d’un certain nombre
d’ancres pour garantir la précision de l’emplacement d’un nœud spécifié. [KFH’05]
Généralement, l’existence de plusieurs nœuds de référence est obligatoire pour avoir une
exactitude et une bonne certitude dans la détermination des positions mais pratiquement ceci est
difficile à cause de l’élévation du coût de ces ancres.
ordinaires. Par contre, elle présente plusieurs inconvénients. Pour pallier à ces derniers, on peut
utiliser une seule ancre qui doit être mobile à la place d’autres fixes [GSW’04] [SKA’10]. Le
nombre important des ancres nécessaires, leur faible précision, leur forte consommation d’énergie
et leur coût motivent cette utilisation. Cette ancre mobile passe à travers la zone de surveillance
en se communiquant avec les autres nœuds pour les encourager à s’auto-localiser et elle diffuse
des informations partout dans sa trajectoire. Elle peut être un robot employé avec le réseau de
capteur sans fil, un opérateur humain ou l’avion dans le cas d’utilisation d’un avion. [ZGA’10]
Le principal inconvénient du déploiement de l’ancre mobile est l’absence d’un cheminement bien
définie ainsi que la fixation des instants durant lesquels les informations vont être diffusées par
l’ancre.
Les techniques de localisation citées précédemment sont basées sur l’emploi des nœuds ancres
qui savent leurs positions à priori. Il existe d’autres méthodes qui n’ont pas besoin des
emplacements des nœuds pour fonctionner. [BHE’03] Ces méthodes nommées anchor-free
servent à préciser les positions relatives à la place des positions absolues et à créer donc une carte
relative propre à un réseau. Chaque nœud assure la collection des informations de voisinage et
l’échange des données avec ses voisins en produisant des coordonnées virtuelles. L’avantage de
la technique anchor-free est qu’elle est totalement distribuée. En fait, chaque nœud est caractérisé
par un système de coordonnées dont il est l’origine. De plus, il y a tant d’applications qui
n’imposent pas la justesse des algorithmes de localisation à base d’ancres alors qu’elles exigent
des critères plus importantes comme la flexibilité, le coût énergétique, la simplicité et la
robustesse.
La précision : On peut définir une erreur de localisation comme étant la distance qui
sépare les vrais emplacements des nœuds et les positions estimées par l’algorithme. Un
algorithme de localisation a comme objectif la minimisation de cette erreur afin
d’augmenter l’exactitude des algorithmes de localisation. Les terrains irréguliers et les
Pratiquement, on ne peut pas tenir compte de tous les critères qui sont cités précédemment
lorsqu’on veut développer un algorithme de localisation. Pourtant, il est intéressant de les garder
en tête afin d’assurer une meilleure méthode selon un ou plusieurs critères choisis.
et très coûteux car cet accroissement épuise les nœuds les plus proches de la station centrale qui
subissent un nombre très important de communications. De plus, ils exigent le déploiement d’une
station de base suffisamment puissante parmi les nœuds, mais ceci n’est pas constamment
possible. Si c’est possible, on peut résoudre la difficulté de la mise à l’échelle en utilisant
plusieurs stations de base. L’avantage de ces algorithmes est de diminuer la charge du calcul au
niveau de chaque nœud. Cependant, la méthode centralisée est limitée par les coûts des
communications de déplacement des données jusqu’à la station de base. Ainsi, on a besoin des
algorithmes distribués. [CJB’05] [LRN’03] Ces algorithmes ne sont pas complexes c’est pour
cela la méthode distribuée est utile dans le cas des réseaux à grande échelle car elle permet
d’éviter une forte consommation de ressources énergétiques alors que les méthodes centralisées
nécessitent trop de communication pour le routage des informations d’un nœud à l’autre jusqu’à
l’unité centrale. Les méthodes distribuées peuvent être classées comme des méthodes de
localisation range-based et des méthodes range-free. Les méthodes range-based exploitent des
informations sur les angles ou les distances afin de déterminer les emplacements des nœuds. Elles
se caractérisent par une résolution fine. En revanche, elles ont besoin de quelques matérielles
supplémentaires ce qui cause l’augmentation du coût économique et opérationnel du réseau. En
outre, la précision des mesures dans ce cas varie selon plusieurs paramètres qui sont liés à
l’environnement du réseau comme le bruit et le degré d’humidité. D’une autre part, les méthodes
range-free assurent la détermination des emplacements des nœuds sans aucun besoin aux données
concernant les angles et les distances. Elles proposent des simples calculs pour évaluer la position
dans un objectif de diminution du coût de l’infrastructure. Elles sont plus économiques en
matériel par rapport aux techniques range-based qui fournissent une meilleure précision car elles
se contentent des informations de connectivité liées à la portée radio. Dans le cas des méthodes
anchor-based, leur fonctionnement exige la connaissance des positions d’un certain nombre
d’ancres pour garantir la précision de l’emplacement d’un nœud spécifié. [LIG’11]
Généralement, l’existence de plusieurs nœuds de référence est obligatoire pour avoir une
exactitude dans la détermination des positions mais pratiquement ceci est difficile à cause de
l’élévation du coût de ces ancres. En revanche, les méthodes anchor-free n’ont pas besoin des
emplacements des nœuds pour fonctionner. L’avantage de la technique anchor-free est qu’elle est
totalement distribuée. En fait, chaque nœud est caractérisé par un système de coordonnées dont il
est l’origine. De plus, il y a tant d’applications qui n’imposent pas la justesse des algorithmes de
localisation à base d’ancres alors qu’elles exigent des critères plus importantes comme la
flexibilité, le coût énergétique, la simplicité et la robustesse. Le tableau Table 2 résulte les
différences entre les techniques de localisation [WCP’10] [DNB’04].
* Très complexe.
Distribué * Il existe des contraintes ressources car les nœuds font le calcul
(la computation est répartie entre eux).
* Résolution fine.
* Coût élevé.
* Techniques hop-counting.
* Economique en matériel.
* Techniques locales.
* Simple calcul.
* Coordonnées relatives.
* Totalement distribué.
* Robuste.
V. Conclusion
Nous avons décrit, à travers ce chapitre, les différentes étapes du procédé de localisation en
donnant une classification des techniques de positionnement. Nous présenterons dans le chapitre
qui suit un cas particulier de localisation : c’est la géolocalisation, et particulièrement on
s’intéressera au domaine médical. Un soin particulier va être fourni à une catégorie de méthodes
qui sont à la fois range-free, distribuées et anchor-based. Nous allons proposer alors une idée
visant diminuer l’erreur de localisation ce qui garantit une augmentation de la précision. La
validation de cette solution va être effectuée par simulation tout en comparant les résultats
obtenus avec celle de l’algorithme de base choisi. Le chapitre suivant comportera les résultats de
simulations propres aux deux algorithmes.
La géolocalisation dans les réseaux de capteurs sans fil est considérée comme un cas particulier
de localisation. C’est le positionnement d’une personne ou d’un objet à l’aide des emplacements
géographiques. On l’utilise aussi afin de positionner des mobiles en déplacement. Avant leurs
mises en place, le déploiement des réseaux de capteurs exige une phase de simulation des
protocoles utilisés pour s’assurer d’un bon fonctionnement. L’évaluation expérimentale de ces
derniers s’avère très coûteuse et nécessite trop de temps pour l’implémentation. Par conséquent,
un environnement de simulation testant les algorithmes avec une bonne précision paraît très
bénéfique en termes de coût et de temps. Dans ce chapitre, on vise expliquer le principe de la
géolocalisation et son intérêt et on donnera un aperçu sur quelques méthodes existantes. En fait,
on va proposer une méthode globale de suivi de patients et de leur géolocalisation en milieu
médicalisé, groupant plusieurs technologies, pour un emploi en intérieur. Nous procéderons par la
suite à l’étude de la méthode de localisation DV-hop qui est basée sur un calcul de nombre de
sauts. La performance des algorithmes de localisation dépend de quelques facteurs importants tels
que la précision du système, la densité des nœuds et les coûts de la communication et de calcul.
On précisera alors les points de faiblesse de la méthode DV-hop puis on va présenter notre
approche fondée sur cette dernière avec une amélioration importante afin de garantir une
meilleure précision. L’étape suivante consiste à réaliser la simulation de DV-hop et puis évaluer
les performances de notre contribution. Le chapitre s’achève par une comparaison des résultats
obtenus. Les simulations des deux algorithmes vont être réalisées par Matlab.
1. Intérêt de la géolocalisation
Les premiers services de traitement des données à distance commencent à apparaître depuis
quelques années sur le marché dans les secteurs terrestre et satellitaire. La géolocalisation
présente un procédé qui assure le positionnement d’un objet (une information, une personne …..)
sur une carte ou un plan grâce à ses coordonnées géographiques. La réalisation de cette opération
se fait en utilisant un terminal capable d’être localisé à l’aide d’un récepteur GPS ou grâce à
d’autres techniques et de garantir la publication de ses coordonnées géographiques de façon
différée ou en temps réel. Les emplacements enregistrés peuvent être stockés à l’intérieur du
terminal et être extraits postérieurement, ou être transmis en temps réel en direction d’une
plateforme logicielle qui assure la géolocalisation. L’envoi en temps réel exige un terminal muni
d’un outil de télécommunication de type radio, satellite ou GSM/GPRS lui permettant de
transmettre les positions pendant des intervalles réguliers. [GUS’00] Ainsi, on peut visualiser
l’emplacement du terminal dans une carte par une plateforme de géolocalisation qui est souvent
accessible depuis internet. Le traitement des informations à distance ou la géolocalisation
s’impose aujourd’hui comme un besoin pour le développement. Elle est applicable dans plusieurs
niveaux. Elle permet de suivre les véhicules transportant les personnes et les marchandises et
assure leur localisation en temps réel et la détection des problèmes. En fait, ce sont des capteurs
ayant des formes variées qui permettent de donner des informations en fonction des positions
géographiques des utilisateurs. La géolocalisation offre plusieurs services dans des différents
domaines. Par exemple, les services de sécurité peuvent trouver en des techniques de
géolocalisation un renfort. Ainsi, tout le monde est actuellement d’accord sur sa valeur
importante.
La géolocalisation est indispensable pour fournir tant de services qui dépendent du contexte
propre à un terminal mobile et elle est requise pour prédire la mobilité. En fait, elle consiste à
détecter l’emplacement de l’individu à travers son terminal mobile en déterminant ses
coordonnées. Les coordonnées peuvent être géographiques (polaires) relativement au centre de la
terre ou relatives, autrement dit définies à l’aide d’un repère ayant une origine arbitraire. La
géolocalisation à l’extérieur se réalise par des méthodes de géolocalisation par satellite (GNSS ou
Global Navigation Satellite System). Toutefois, les GNSS fonctionnent mal dans les
environnements couverts tels que les villes et les forêts tout en amenant des erreurs de quelques
dizaines de mètres. Ils ne peuvent pas fonctionner à l’intérieur d’un bâtiment, sauf en utilisant des
répéteurs. Ainsi, des alternatives appuyées sur certains appareils facilement accessibles voient le
jour. L’emploi de la norme IEEE 802.11 est particulièrement intéressant pour l’évolution des
a. Géolocalisation fondée sur l’analyse des signaux émis par des satellites
Cette méthode se base sur l’implémentation d’un positionnement par satellite. [FTM’00] La
géolocalisation utilisant cette technique est permise par un dispositif électronique qui peut être le
GPS ou ses deux concurrents que ce soit GLONASS (système global de navigation par satellite)
qui représente son alternative russe ou le système Galileo qui est son alternative européenne. En
fait, on équipe le matériel ou le véhicule à localiser d’un récepteur GPS qui comprend également
un système GPRS afin de transmettre la position via un réseau de téléphonie mobile et avec une
précision de l’ordre de 10m. Les emplacements géographiques seront centralisés sur un serveur et
ils permettent ensuite un usage de type temps réel (déclenchement d’alerte, suivi de flotte,
recherche de ressources sur terrain) ou différé (analyse d’incident, statistiques d’utilisation, de
vitesse de service, de kilométrage…).
Le système GLONASS :
Il s’appuie sur le système géodésique russe PZ-90.02 (calcul des distances spatiales) qui est
conforme au système mondial WGS84 appliqué par le GPS. A l’inverse de ce dernier, les
satellites établissent la diffusion du même code mais les fréquences sont différentes. En outre,
elles utilisent 25 canaux séparés. En 2010, le système GLONASS compte 23 satellites sauf que
leur durée de vie est plus limitée relativement à celle des satellites GPS. Leur modernisation en
cours permettra l’interopérabilité avec GPS et GALILEO, ainsi que l’élévation de la précision. Le
programme GLONASS qui va s’étendre jusqu’à 2020, vise à obtenir des performances
comparables au GALILEO et au GPS.
Le système GALILEO :
A l’inverse du GLONASS russe et du GPS américain, ce système est développé pour une
utilisation non militaire de la part de l’union européenne et pour une couverture globale à l’aide
de 30 satellites (3 en réserve et 27 opérationnels). Le système GALILEO est compétitif au GPS
car ils se basent sur la même technologie mais il offre une meilleure précision qui peut atteindre
le 1 mètre dans le cas d’un service commercial. Ce système est aussi très fiable et il assure la
validité des informations de localisation par l’intégration d’un signal d’intégrité qui permet
d’informer les utilisateurs s’il y a une erreur quelconque dans les données reçues. En outre, il
peut être un complément pour GLONASS et GPS car il emploie le même type des signaux BOC
ou Binary Offset Carrier ainsi que les bandes de fréquences comme L1 et L2 (E1, E2, E5… pour
GALILEO). C’est un avantage qui permet l’utilisation du même équipement matériel et de ce fait
seulement les données transportées présentent la différence entre deux systèmes. L’équipement
qui peut lire les deux types de signaux GALILEO et GPS peut alors effectuer le traitement de
chaque donnée à part. Ainsi, il peut garantir une double précision. Cette compatibilité est
bénéfique car un équipement peut basculer suivant la couverture d’un système de géolocalisation
à un autre.
Le téléphone mobile réalise l’émission d’un signal qui va être arrivé au niveau des stations
mobiles environnantes. La station la plus proche assure le renvoi de ce signal. Le temps qui
s’écoule entre l’envoi et la réception de l’onde va être analysé grâce à un serveur externe qui
garantit le calcul du positionnement du téléphone portable à travers le réseau.
Le système qui repose sur l’identification par cellule représente la technique la moins coûteuse et
la plus simple. Ainsi, aujourd’hui la méthode du Cell ID est la plus utilisée parmi les méthodes
GSM. [FTM’00] Elle consiste à assurer une récupération des identifiants des antennes auxquelles
le terminal se connecte. Ensuite, à l’aide d’une base de données qui fait le lien entre les
emplacements géographiques des antennes et les identifiants des cellules, le terminal peut
déterminer sa position et devient capable d’’émettre une estimation. En fait, lorsque l’utilisateur
est situé dans un milieu couvert par le réseau, sa localisation s’effectue grâce à une identification
de la cellule où se trouve l’antenne qui assure la transmission de la communication. Si ce
positionnement est rapide et s’accomplit en quelques secondes il n’est pas très précis (une dizaine
de kilomètres dans un milieu rural et 250 mètres dans une zone urbaine).
La triangulation :
En utilisant cette méthode le temps de localisation devient un peu plus long en le comparant avec
celui de la technique Cell ID, cependant la précision est meilleure car elle est de 4 km en milieu
rural et de 125 mètres en zone urbaine.
calcul et l’affectation des positions X, Y à un objet ou à une adresse référencée dans une carte
vecteur avec une exactitude de quelques mètres en moyenne.
Un terminal Wifi peut employer le même principe que la méthode Cell ID en s’appuyant sur
l’ensemble des identifiants des bornes Wifi qu’il détecte (adresses MAC).
C’est une méthode qui permet de préciser l’emplacement géographique d’un ordinateur ou la
position de n’importe quelle station connectée à internet en se fondant sur son adresse IP.
[CIS’03] La gestion des adresses IP se fait par l’IANA qui est une organisation qui assure le
découpage des blocs d’adresses IP qui sont disponibles et elle s’occupe de leur distribution d’une
manière très contrôlée dans les pays qui en demandent. Il est alors possible de connaître dans quel
pays se situe un terminal connecté à internet à l’aide de son adresse IP.
Il existe plusieurs propriétés qui permettent de juger une méthode de géolocalisation. Parmi les
propriétés qui définissent les systèmes de géolocalisation on peut citer la fréquence de
localisation, les erreurs, la symbologie, le délai de localisation, le coût, l’extensibilité et le choix
d’un calcul distribué ou centralisé [ABG’10].
La fréquence de localisation :
C’est la vitesse à laquelle les emplacements sont calculés. Ce critère prend sa valeur dans le
domaine de géolocalisation quand un système centralisé doit servir plusieurs clients. Il
déterminera également l’extensibilité du système devant l’accroissement de l’ensemble de
terminaux mobiles.
Les erreurs :
L’erreur produite par n’importe quel système de géolocalisation représente un critère d’analyse
très important. Elle permet le jugement de la pertinence du système de géolocalisation pour
l’emploi qui lui sera dévolu. L’erreur peut être détectée et corrigée, lorsqu’elle est systématique.
Elle peut sinon être traitée par des méthodes statistiques dans le cas où on ne sait pas les
différentes conditions de son apparition.
La symbologie :
C’est la caractéristique fondamentale d’une méthode de géolocalisation. Elle définit le lien entre
l’espace dans lequel nous évoluons en trois dimensions et sa représentation par ce système de
géolocalisation. La représentation est par exemple des informations associées à la topologie des
bâtiments ou peut être des coordonnées cartésiennes.
Le délai de localisation :
C’est le temps séparant le déplacement d’un terminal mobile de son positionnement par le
système. Il est important car il assure la détermination de l’erreur systématique produite par le
système de localisation. Cette propriété prend son importance dans les différentes applications de
réalité virtuelle.
Le coût :
L’extensibilité du système :
C’est l’aptitude du système de géolocalisation à être étendu soit à une plus grande quantité de
terminaux mobiles, soit à un espace de déploiement plus grand, voire aux deux. En fait, plus on
fait étendre le système à un nombre important de terminaux mobiles ou à des zones vastes, plus la
quantité de calculs requise croît.
Dans un système centralisé, l’emplacement est calculé par un serveur mais dans un système
distribué une position est déterminée soit par les terminaux eux-mêmes soit par plusieurs
serveurs. Ce choix technique a une influence sur l’extensibilité du système de géolocalisation. On
peut choisir l’architecture selon les capacités des appareils déployés ou selon le fonctionnement
du système.
médical car les micro-capteurs permettent une liberté de mouvement aux sujets contrôlés et
surveillés aussi une identification plus rapide de quelques symptômes aux médecins.
On propose à travers cette mémoire d’effectuer une collecte des informations en temps réel et
d’une manière automatisée à travers un réseau de capteurs. Notre proposition consiste à présenter
une méthode globale de suivi de patients et de leur géolocalisation en milieu médicalisé, groupant
plusieurs technologies, pour un emploi en intérieur. En fait, un ou quelques capteurs fixes
formeront une colonne vertébrale qui est chargée de relayer les données récoltées par des
capteurs placés sur des patients et qui sont mobiles. Les capteurs fixes doivent être organisés en
une structure virtuelle efficace et robuste, alors que les autres capteurs mobiles nécessitent d’être
capables de s’adapter aux différents déplacements afin de faire remonter les informations d’une
manière correcte. Il est essentiel d’utiliser des ancres mobiles qui vont se communiquer avec les
autres nœuds pour simplifier l’attribution des coordonnées aux capteurs attachés aux malades.
Ces ancres, qui ont un rôle très important, peuvent être apposées ou portées par les personnes qui
travaillent à l’hôpital (médecins, infirmiers…) et aussi elles peuvent être insérées dans des
équipements médicaux. Puisque leurs positions changent au cours du temps, il est nécessaire de
les mettre à jour. Pour ce faire, on propose d’employer la technologie RFID. En effet, une série
de lecteurs RFID qui sont équipés de plusieurs types d’antennes sont placés de façon à couvrir
toute la zone souhaitée. Cette dernière est alors subdivisée en cases avec des surfaces qui varient
en fonction de la puissance des lecteurs déployés et de leur nombre. [NIS’05] Dans le cas où une
personne équipée d’une étiquette RFID se situe dans ces zones là, il sera possible que le système
calcule sa position en s’appuyant sur le nombre de lecteurs détectant l’étiquette et il sera capable
de déduire l’emplacement approximatif de l’individu en se fondant sur le schéma de découpage
établi. Cependant, cette technique reste très approximative en temps réel et son exactitude
permettra uniquement de préciser le couloir ou la pièce dans laquelle existe la personne. Cette
technique de géolocalisation est notamment employée dans les hôpitaux car des lecteurs RFID
peuvent être positionnés dans les portes du bâtiment afin d’indiquer si une personne équipée
d’une étiquette les traverse. On choisira alors d’utiliser des lecteurs puissants et des étiquettes
passives car elles se caractérisent par un faible coût et une petite taille et leur durée de vie
fonctionnelle est importante. Chaque étiquette va être associée à une ancre et chaque fois qu’elle
sera éveillée par un lecteur, un dialogue va être établi et les données vont être échangées. Une
mise à jour de la position de cette ancre sera alors faite et on pourra l’utiliser afin de géolocaliser
les patients.
On expose dans cette partie un aperçu non exhaustif des méthodes de localisation pour les
réseaux de capteurs sans fil à la fois distribuées, anchor-based et range-free.
1. La méthode APIT
test PIT consiste à vérifier l’existence du nœud soit à l’extérieur soit à l’intérieur d’un triangle
donné. En fait, la comparaison des mesures d’intensité du signal reçu concernant les nœuds
voisins nous permet de déterminer qu’un nœud A est plus proche qu’un nœud B à une ancre M.
Une fois l’exactitude suffisante est obtenue, la position du nœud peut être définie comme étant le
centre de gravité de la zone d’intersection de tous les triangles. Les étapes de l’algorithme APIT
s’effectuent d’une manière purement distribuée au niveau de chaque nœud et son exactitude
dépend fortement de la précision du test APIT.
2. Centroide et CPE
Ces deux algorithmes sont basés sur les méthodes range-free et ils sont très simples mais exigent
que les nœuds normaux doivent avoir au moins trois ancres voisines. [LGU’11] On suppose que
autour du nœud A, il existe m ancres voisines N1, N2 ……. Nm dont les emplacements sont
respectivement ( x1 , y1 ), ( x2 , y2 ) …….( xm , ym ). On suppose aussi que tous les nœuds
disposent de la même portée radio. L’algorithme Centroide a comme principe : le nœud normal A
transmet d’abord une demande de positionnement aux ancres voisines, puis il reçoit les positions
des ancres et enfin il calcule l’emplacement estimé comme la moyenne des emplacements des
ancres voisines. Cette position estimée nommée Acentroide ( x centroide , ycentroide ) se calcule comme
suit:
(III.1)
Les avantages de cet algorithme sont les suivants : une faible complexité de calcul, un trafic
réseau réduit et une bonne précision dans le cas d’une distribution uniforme des ancres.
Toutefois, lorsque cette distribution n’est pas uniforme, l’emplacement qui dérive de cet
algorithme devient inexacte. Le principe de CPE (Convex Position Estimation) consiste à définir
le rectangle estimé bornant la zone qui recouvre les portées de N1, N2 ……. Nm. Ensuite, on
considère le centre du rectangle estimé, appelé ACPE, comme la position estimée de A. Les
coordonnées de ACPE ( xcpe , ycpe ) se calculent comme suit :
(III.2)
3. La méthode DV-hop
La méthode DV-hop (Distance Vector Hop) est l’une des techniques distribuées employées pour
la géolocalisation dans les réseaux de capteurs sans fil. Elle est fondée sur la connaissance des
emplacements d’un certain nombre de nœuds et elle n’exige pas de matériels supplémentaires
pour estimer les distances. [LGU’11] [DNB’01] L’implémentation de l’algorithme DV-hop
comprend trois étapes principales. D'abord, il emploie un échange classique de vecteur de
distance afin d’obtenir des informations concernant la position de chaque nœud telles que les
coordonnées des ancres et le nombre de sauts. Et ensuite, il estime la distance moyenne d’un seul
saut, qui sera alors déployée comme une correction pour le réseau entier. Finalement, chaque
nœud maintient une table des ancres connues et le nombre de sauts qui le sépare de chaque ancre
et en utilisant la distance moyenne d’un saut il devient capable de calculer sa propre position en
utilisant la multilatération. Dans la technique DV-hop, lors de l’inondation des emplacements des
ancres, chaque capteur réalise un calcul du nombre de sauts minimum lui séparant de chacune des
ancres. En outre, une deuxième vague d’inondation permet de fournir suffisamment de données
au capteur afin de pouvoir convertir les nombres de sauts déterminé en estimations de distances.
Cette conversion consiste à faire une multiplication du nombre de sauts entre un capteur et une
ancre et de la distance moyenne qui sépare deux capteurs voisins.
Lors de la réception de la position d’une ancre a2 par une ancre a3, cette dernière calcule la
distance euclidienne entre elles et la divise ensuite par le nombre de sauts. Ainsi, elle obtient une
moyenne des distances des sauts entre elle et a2 et fait la communiquer aux capteurs. Lorsque a3
reçoit d’autres emplacements d’ancres, elle fait à nouveau une calibration de sa distance moyenne
et puis assure la diffusion de cette mise à jour jusqu’aux capteurs pour qu’ils puissent réaliser le
raffinement de leurs estimations de distances. La distance moyenne d’un saut est généralement
calculée en utilisant la formule suivante :
(III.3)
Avec (xi, yi) et (xj, yj) sont les coordonnées de l’ancre i et l’ancre j et hij est le nombre de sauts
entre l’ancre i est l’ancre j. La figure précédente représente une illustration de la technique DV-
hop où l’ancre a3 réalise l’estimation de la distance moyenne d’un saut. Les ancres sont
représentées par a1, a2 et a3 alors que les capteurs non localisés sont représentés par les autres
nœuds. Cinq sauts séparent a2 de a3 et six sauts séparent a1de a3. L’ancre a3 calcule les distances
euclidiennes d23 = 75 m et d13 = 100 m.
Pour obtenir leurs emplacements, les capteurs emploient ensuite la multilatération. En reprenant
l’exemple précédent, n obtiendra sa position en effectuant la résolution du système suivant :
(III.4)
Finalement, le processus de raffinement des emplacements est effectué. En fait, après l’estimation
de leurs positions, les capteurs assurent leur diffusion à leurs voisins. Ainsi, en fonction de ces
informations et grâce aux différentes relations de voisinage, ces capteurs déterminent à nouveau
leurs emplacements qui se rapprochent de leurs emplacements réels. Les capteurs fixent alors
leurs positions estimées après un nombre défini d’itérations. [DWZ’10] La précision de
l’algorithme DV-hop est faible car la distance moyenne d’un seul saut représente une estimation
approximative et il est difficile de connaître les valeurs exactes des distances qui séparent les
nœuds. En effet, l’exactitude de cet algorithme varie en fonction de la précision de ces distances.
La deuxième faiblesse est liée au type de distribution des nœuds car plus elle est régulière plus les
résultats sont précis c'est à dire qu’il n’est pas valable pour les distributions aléatoires. En
revanche, l’avantage de cette méthode est qu’elle n’exige pas de matériels supplémentaires pour
l’estimation des distances et la détermination des emplacements inconnus et cela réduit
considérablement le coût économique et énergétique de la localisation et aussi elle échappe à la
contrainte posée par Centroide et CPE (l’exigence d’un minimum de trois ancres voisines). En
outre, elle emploi un algorithme très simple qui ne nécessite pas trop d’opérations de calcul et de
communication radio et de traitement c'est-à-dire pas trop de consommation d’énergie.
V. Notre contribution
Dans le domaine de la géolocalisation au niveau des réseaux de capteurs sans fil, on cherche
toujours à garantir une meilleure précision avec une faible consommation d’énergie et un coût
moins élevé. On essaie alors de profiter des avantages des différentes méthodes de
positionnement existées et on propose un nouvel algorithme qui résout les problèmes de
satisfaction des contraintes. [LWC’10] Cet algorithme doit trouver le chemin le plus économe en
énergie et assurer une prolongation de la durée de vie des nœuds. Notre approche consiste à
proposer un algorithme basé sur DV-hop qui est considéré comme un exemple typique de la
catégorie des méthodes qui sont à la fois distribuées, anchor-based et range-free. [HKP’08] En
effet, la méthode DV-hop n’est pas assez précise. Ainsi, l’exactitude de la localisation doit être
encore améliorée. On cherche alors à garantir la réduction du coût de notre algorithme et à
assurer l’évaluation de la charge réseau provoquée par le protocole qui est associé à cet
algorithme. En conséquence, on propose un nouvel algorithme afin de réaliser un compromis
satisfaisant entre précision de localisation et complexité de calcul. Notre approche comporte
quatre étapes. Les deux premières étapes sont les mêmes que la méthode DV-hop alors que les
autres sont spécifiques à notre proposition. [MJL’06] Initialement, chaque ancre Ai (i appartient à
[1…m] avec m représentant le nombre de nœuds existants dans le réseau) sait déjà son
emplacement, par exemple par l’installateur manuel propre au réseau et aux ancres fixes. Chaque
nœud Nx maintient une variable hopi,Nx représentant le nombre de sauts minimum qui sépare Nx
de Ai. Ai initialise hopi,Nx à -1 dans le cas où Nx n’est pas Ai et s’ils sont les mêmes hopi,Nx sera
initialisé à 0. Ensuite, il réalise une diffusion d’une trame balise à ses voisins. Cette trame
BeaconAi contient l’emplacement de Ai (xi, yi) ainsi que le nombre de sauts (à ce stade la valeur
est égal à 0). Lorsqu’un nœud voisin de l’ancre, noté N p, reçoit BeaconAi, il mémorise (xi, yi) et
fait changer hopi,Np qui va prendre la valeur 1. Puis, il diffuse une nouvelle trame BeaconNp à ses
voisins et cette trame contient hopi,Np et (xi, yi). Lorsqu’un voisin de Np, noté Ns, reçoit
BeaconNp, il mémorise (xi, yi) et fait une comparaison de hopi,Ns avec hopi,Np +1 et aussi avec la
valeur -1. Afin de garantir la maintenance du nombre de sauts minimum jusqu’à l’ancre Ai, si
hopi,Ns = -1ou si hopi,Ns > hopi,Np +1, Ns affecte hopi,Ns à la valeur hopi,Np +1, et assure la diffusion
de BeaconNs contenant (xi, yi) et hopi,Ns. Sinon, Ns absorbe simplement BeaconNp. Les autres
nœuds restants répètent la même opération faite par Ns. Ainsi, tous les nœuds appartenant au
réseau obtiennent, grâce à ce mécanisme, le nombre de sauts minimum entre lui et chaque ancre.
Après cette étape, il sera possible pour chaque nœud normal Nx de connaître hopi,Nx et aussi
chaque ancre Ai peut savoir hopi,k qui représente le nombre de sauts minimum séparant Ai de
chaque autre ancre Ak. Ai peut ainsi calculer dhpi indiquant sa distance moyenne par saut puis elle
la diffuse. Nx la reçoit et peut alors obtenir la distance approximative entre lui et Ai notée di,Nx en
multipliant la distance moyenne par saut par le nombre de sauts minimum. Pour ce faire, on
utilise l’équation suivante :
(III.5)
Puisque le paramètre di,Nx est essentiel pour le calcul de l’emplacement du nœud normal, il a une
influence importante sur la précision de notre algorithme. Si Anear représente l’ancre la plus
proche du nœud Nx parmi toutes les autres ancres alors hopnear,Nx indique la plus petite valeur. De
ce fait, par rapport aux autres ancres existantes dans le réseau, l’évaluation de la distance séparant
Anear et Nx, notée dnear,Nx, est plus précise. On va alors profiter de cette conclusion au niveau de
notre approche pour atteindre une meilleure exactitude [RLT’11]. On cherche à déterminer dans
la troisième étape les trois ancres les plus proches du nœud normal Nx en comparant les distances
approximatives obtenues à la fin de l’étape précédente. Le nœud se situe alors dans la zone de
couverture des cellules de ces ancres. Soit A1(x, y), A2 (x’, y’) et A3(x1, y1) ces trois ancres avec
d1,Nx< d2,Nx< d3,Nx. On désigne par I1(x2, y2) le milieu du segment [A1 A2] et par I2(x3, y3) le
milieu du segment [A1A3]. Nous déterminons alors au niveau de la dernière étape l’intersection
des médiatrices des côtés du triangle I1I2A3 c'est-à-dire l’intersection des médiatrices de [I1I2],
[I2A3] et [I1A3] (Ligne1est la médiatrice de [I1I2] et Ligne2 est la médiatrice de [I1A3]) et
finalement le point trouvé nommé T devient la position estimée de notre nœud. Les coordonnées
des points I1et I2 sont obtenues grâce au calcul suivant :
(III.6)
(III.7)
(III.8)
(III.9)
On suppose que toutes les ancres gardent la même portée radio assimilée à un cercle au niveau de
la figure qui suit :
T : position estimée
La simulation est une phase très importante qui nous permet d’analyser la performance d’un
réseau de capteurs sans fil [ABM’08]. En fait, il faut réduire au maximum les différentes erreurs
de conception éventuelles en procédant à une étape de validation. Il existe plusieurs
1. Choix du simulateur
Matlab, qui est l’abréviation de Matrix Laboratory, est sélectionné pour exécuter les simulations
de notre travail. Pourquoi on a trouvé dans Matlab une plateforme de simulation qui fournit
l’environnement favorable pour les besoins de notre algorithme? Premièrement, ce langage de
programmation a pu séduire les chercheurs et la communauté scientifique commence à avoir
confiance en lui et surtout dans le cas des réseaux de capteurs sans fil. En second lieu, ce choix
est justifié par le fait qu’on peut voir la localisation comme un problème purement géométrique.
[AAM’04] [RAY’00] Il s’agit d’un environnement complet, puissant, facile à utiliser et
extensible pour la visualisation et le calcul scientifique. En fait, il apporte aux chercheurs un
système interactif qui intègre le calcul numérique car il dispose d’un nombre très important de
fonctions mathématiques, techniques et scientifiques. [MAT’00] Son approche matricielle permet
le traitement des données sans une limitation de taille et la réalisation des calculs symboliques et
numériques de façon rapide et fiable. Grâce à ses fonctions graphiques, il devient facile d’assurer
la modification des différents paramètres des graphiques afin de les adapter selon nos exigences.
En outre, ce simulateur comprend un ensemble d’outils propres à des domaines, notés Toolboxes
ou aussi boîtes à outils. Ces dernières sont des collections de plusieurs fonctions étendant
l’environnement Matlab afin de résoudre des classes spécifiques de problèmes. On considère
alors Matlab comme un des meilleurs simulateurs grâce à ses particularités par rapport aux autres
langages de programmation (par exemple C ou Fortran). En effet, il se caractérise par [MIN’01]:
La programmation facile.
Une gamme étendue de nombres et leurs précisions.
Une continuité parmi les valeurs réelles, entières et complexes.
Une bibliothèque mathématique très compréhensive.
L’outil graphique incluant des fonctions puissants d’interfaces utilisateurs.
Pour toutes ces raisons, nous avons développé le simulateur Matlab pour étudier les performances
de notre approche et mettre en œuvre notre algorithme.
2. Paramètres de simulation
Avant d’accomplir les évaluations, il est nécessaire d’ajuster les paramètres qui vont former le
contexte de notre simulation.
Le réseau de capteurs qu’on vient de simuler comporte 100 nœuds capteurs (nœuds ordinaires et
ancres) qui sont dispersés dans une zone de 100 x 100 m2 (figure 30). Ils sont déployés selon une
distribution aléatoire afin de tester les performances de l’algorithme proposé dans des conditions
plus semblables à celles réelles. Le placement aléatoire des ancres permet alors de mesurer
l’exactitude de notre approche dans un contexte plus réaliste.
b. Nombre d’ancres
Les deux paramètres les plus importants dans notre travail sont l’erreur et la précision de
localisation. D’après les différents travaux de recherches déjà réalisés concernant l’influence des
ancres sur le positionnement, on a constaté que l’exactitude augmente avec l’accroissement du
3. Résultats de simulation
La figure 31 montre l’erreur de positionnement pour chaque nœud capteur dans le cas d’une
distribution aléatoire en utilisant 85 nœuds ordinaires et15 ancres. Cette courbe confirme l’idée
que la position des ancres a une grande influence sur la précision de localisation.
On définit un ratio d’ancres comme étant le rapport du nombre d’ancres sur le nombre total des
nœuds qui est 100. Ces ratios varient de 3% à 60%. La figure 32 présente la valeur moyenne de
l’erreur variée en fonction du nombre d’ancres. Cette valeur est définie comme le rapport de la
somme des erreurs pour chaque nœud sur le nombre des nœuds ordinaires. Nous pouvons
remarquer que l’augmentation du nombre d’ancres assure la réduction de l’erreur de localisation.
En revanche, cette dernière a passé d’environ 81% à environ 62% du porté radio ce qui indique
une erreur très importante.
D’après la figure 33, on remarque que lorsqu’on a augmenté le nombre d’ancres l’erreur du
positionnement a chuté considérablement. En fait, elle a passé d’environ 46% à environ 18% du
porté radio.
Pour confirmer la performance de notre approche proposée, on va faire une comparaison des
résultats obtenus lors de nos simulations. En premier lieu, on commence par citer les différences
entre la variation de l’erreur de localisation de l’algorithme DV-hop en fonction du nombre
d’ancres et celle propre à notre algorithme amélioré. Puis, on va comparer l’exactitude de
chacune de ces deux méthodes. En effet, on définit la précision de localisation estimée comme
étant le rapport de l’erreur moyenne sur la portée radio des nœuds. L’étape suivante consiste à
simuler et comparer notre algorithme et deux autres algorithmes existants, Checkout DV-hop et
Mid-Perpendicular.
l’erreur de notre approche est d’environ 45%, tandis que l’autre est d’environ 71%. En outre,
quand il est de 50%, l’erreur de l’algorithme DV-hop standard est d’environ 63% alors que
l’autre est d’environ 20% du porté radio. Cela signifie que notre méthode améliorée atteint une
meilleure exactitude que DV-hop ce qui est confirmé à travers la figure 35. Cette dernière nous
informe sur la variation de la précision de localisation en fonction du nombre d’ancres pour les
deux algorithmes. Par exemple lorsqu’on utilise 20 ancres la précision de notre algorithme est
approximativement 61% alors que l’autre est d’environ 18% et quand on élève le nombre
d’ancres jusqu’à 50 l’exactitude de la technique DV-hop devient 25% et celle de notre algorithme
devient 85%. On peut ainsi confirmer la meilleure performance de notre nouvelle approche et
aussi l’effet important des ancres sur la précision de localisation.
Dans cette partie, on cherche à simuler et à comparer notre algorithme et trois algorithmes
existants qui sont DV-hop, Checkout DV-hop et Mid-perpendicular. La figure 36 illustre le
principe de fonctionnement de notre approche et celui de la technique Mid-perpendicular dans
une distribution aléatoire des nœuds capteurs. En effet, P indique l’emplacement estimé à l’aide
de Mid-perpendicular et T symbolise la position estimée en utilisant l’algorithme amélioré. On
remarque que la précision de ce dernier est mieux que celle obtenue par la méthode existante.
A travers la figure 37, nous pouvons remarquer que l’erreur moyenne de notre algorithme est plus
faible que celle des autres techniques. On peut alors conclure que la nouvelle méthode atteint une
meilleure exactitude que Mid-perpendicular, Checkout DV-hop et DV-hop. Cette idée est aussi
confirmée et montré par la figure 38 qui présente la variation de la précision des quatre
algorithmes en fonction du ratio d’ancres. L’erreur moyenne de localisation diminue en
augmentant le nombre d’ancres employées. Sur chaque taux d’ancres, notre approche a la plus
petite erreur c'est-à-dire la plus grande précision. Par exemple, lorsque le ratio d’ancres a comme
valeur 20%, l’erreur de notre algorithme est approximativement 46%, alors que les autres sont
plus de 52%. Quand le nombre d’ancres utilisées accroît jusqu’à 50, l’erreur diminue et devient
25%. Dans ce cas, les erreurs de localisation des autres algorithmes sont approximativement plus
de 45%. Il est clair d’après nos simulations que l’amélioration assurée par cette nouvelle méthode
est efficace et que notre algorithme de géolocalisation est plus précis que les autres qui sont déjà
mentionnés.
VII. Conclusion
Afin d’accomplir nos travaux, nous visons tester notre solution sur le plan pratique. En fait, ce
test permettra de la mettre dans des conditions plus réelles et par conséquent on peut raffiner
d’avantage les emplacements recherchés. Finalement, on souhaite également exploiter cette
nouvelle approche dans le but d’un développement d’une technique effective de fusion de
données.
Bibliographie
[MDG’08] Mark Hempstead, Michael J. Lyons, David Brooks, and Gu-Yeon Wei, “Survey of
Hardware Systems for Wireless Sensor Networks” Vol. 4, 1–10, 2008.
[DMH’05] Daniele Puccinelli and Martin Haenggi, “Wireless Sensor Networks: Applications and
Challenges of Ubiquitous Sensing”, IEEE Circuits and Systems Magazine, Third Quarter 2005,
p.9-29.
[BJA’00] Book Jun Zheng, Abbas Jamalipour, “Wireless Sensor Networks: A Networking
Perspective”, Network Architectures and Protocol Stack, A John Wiley & Sons, INC.,
PUBLICATION p.21-24
[SFL’06] Serge Fdida, Farid Benbadis, Luigi Iannone, “Les réseaux de capteurs : État de l’art,
exemples, recherche”, Marcelo Dias de Amorim, LIP6-CNRS/UPMC.
[AJD’02] Alan Mainwaring, Joseph Polastre Robert Szewczyk, David Culler, John Anderson,
“Wireless Sensor Networks for Habitat Monitoring”, Proceedings of the 1st ACM international
workshop on Wireless sensor networks and applications WSNA’02, September 28, 2002, Atlanta,
Georgia, USA.
[JAS’10] John A. Stankovic, “Wireless Sensor Networks for Healthcare”, Proceedings of the
IEEE | Vol. 98, No. 11, November 2010, p. 1947-1960.
[RSN’00] http://www.research.rutgers.edu/~mini/sensornetworks.html
[RAK’09] Rahim Kacimi, “Techniques de conservation d'énergie pour les réseaux de capteurs
sans fil”, thèse doctorat, Université de Toulouse, Septembre, 2009.
[YAD’08] Yannick Darcillon, “Localisation des nœuds dans les Réseaux de capteurs sans fil”,
Master 2 RTM 2007/2008.
[SGP’00] http://www.gps.gov/systems/gps/
[DGS’00] http://costkiller.net/Definition/G/definition-GSM.htm
[LWP’10] Z. Li, R Li., Y. Wei, T. Pei, “Survey of localization techniques in wireless sensor
networks”, Information Technology Journal, vol. 9, no. 8, 2010, p. 1754–1757.
[ASJ’08] A. Srinivasan and J. Wu, “A survey on secure localization in wireless sensor networks,”
Encyclopedia of Wireless and Mobile Communications, B. Furht (ed.), CRC Press, Taylor and
Francis Group, 2008.
[XNT’03] X. Nguyen and T. Rattentbury, “Localization algorithms for sensor networks using RF
signal strength”, University of California at Berkeley, Tech. Rep., May 2003.
[RPM’06] Rong Peng and Mihail L. Sichitiu, “Angle of Arrival Localization for Wireless Sensor
Networks”, in Proc. of the Third Annual IEEE Communications Society Conference on Sensor
and Ad Hoc Communications and Networks, (Reston, VA), Sep. 2006.
[PHY’05] P. Biswas, H. Aghajan, and Y. Ye, “Integration of angle of arrival information for
multimodal sensor network localization using semidefinite programming”, in 39th Asilomar
Conference on Signals, Systems and Computers, Nov. 2005.
[CAB’06] Cheikh Ahmadou Bamba GUEYE, “Localisation géographique des hôtes dans
l’Internet basée sur la multilatération”, thèse de doctorat, 08 Décembre 2006.
[TCB’03] Tian He, Chengdu Huang., Brian M. Blum, John A. Stankovic, “Range-free
Localization Schemes in Large Scale Sensor Networks”, Proceedings of the 9th Annual
International Conference on Mobile Computing and Networking. New York, 2003, p. 81-95.
[KFH’05] Ssu K. F., Ou C. H., Jiau H. C., “Localization with mobile anchor points in wireless
sensor networks”, IEEE Transactions on Vehicular Technology, vol. 54, 2005, no. 3, p. 1187–
1197.
[JYC’07] Jiang Jin, Yi Wang, Chen Tian, Wenyu Liu and Yijun Mo, “Localization and
synchronization for 3d underwater acoustic sensor networks”, In Springer, Ubiquitous
Intelligence and Computing 2007, pages 622--631, Hong Kong, China, July 2007.
[GSW’04] G.-L. Sun and W. Guo, “Comparison of distributed localization algorithms for sensor
network with a mobile beacon,” in Proc. IEEE Int. Conf. Networking, Sensing Control (ICNSC),
Taipei, Taiwan, R.O.C., Mar. 2004, p. 536–540.
[SKA’10] Sunil Kumar et al., Enhanced composite approach with mobile Beacon shortest path to
solve localization problem in wireless sensor network, International Journal of Engineering
Science and Technology, Vol. 2(12), 2010, p. 7579-7585.
[ZGA’10] Zhongwen Guo et al. “Perpendicular Intersection: Locating Wireless Sensors with
Mobile Beacon”, IEEE Transactions on Vehicular Technology, Volume: 59 Issue: 7, Sept. 2010,
p3501 – 3509.
[BHE’03] Nissanka B. Priyantha, Hari Balakrishnan, Erik Demaine, and Seth Teller, “Anchor-
Free Distributed Localization in Sensor Networks”, in Proc. 1st International Conference on
Embedded Networked Sensor Systems (SenSys 2003), Los Angeles, California, USA, November
5-7, 2003, pages 340-341.
[GMB’09] Guoqiang Mao and Baris Fidan, “Localization algorithms and strategies for wireless
sensor networks”, (Michael Allen, Sebnem, Elena Gaura and Gurhan Kucuk) Chapter XIV:
“Evaluation of Localization Algorithms” Information Science Reference 2009 p. 348-379.
[CJB’05] Chris Savarese, Jan M. Rabaey, Jan Beutel, “Locationing in distributed Ad-Hoc
wireless sensor networks”, in IEEE conference on computer communications (INFOCOM), p.
1632-1638 (2005)
[LRN’03] Langendoen k., Reijers N., “Distributed localization in wireless Sensor Networks: a
quantitative comparison”, Elsevier Computer Networks 43, 2003, p. 499-518.
[GGW’05] Gao (T.), Greenspan (D.), W (M.) et al., “Vital signs monitoring and patient tracking
over a wireless network”, 27th Annual International Conference of the Engineering in Medicine
and Biology Society. IEEE-EMBS, 2005, p. 102–105.
[BKM’04] Baldus (H.), Klabunde (K.) et Muesch (G.), “Reliable setup of medical body sensor
networks”, In proc of the European conference on Wireless Sensor Networks (EWSN), Germany,
2004, p. 353–363.
[GAL’00] Gwenael Saout, Anne Wei, Laurence Redon, “Localisation dans les systèmes de
surveillance et d’assistance pour des personnes âgées”, IUT de Blagnac, Université de Toulouse,
UTM-LATTIS, 1 Place Georges Brassens, F-31703 Blagnac, France.
[JZW’09] Ji zeng Wang, “Improvement on APIT Localization Algorithms for Wireless Sensor
Networks”, In Conference Publications, Volume 1, 25-26 April 2009, p.719-723.
[LGU’11] Linqing GUI, “Un Nouvel Algorithme de Localisation pour les Réseaux de Capteurs
sans Fil”, thèse de doctorat, EDSYS2011, Toulouse, INSA-Toulouse.
[DWZ’10] Dai Ying, Wang Jianping, Zhang Chongwei, “Improvement of DV-Hop Localization
Algorithms for Wireless Sensor Networks”, 6th International Conference on Wireless
Communications Networking and Mobile Computing (WiCOM), 23-25 Sept. 2010, Chengdu,
p.1- 4.
[HKP’08] Hongyang Chen, Kaoru Sezaki, Ping Deng, Hing Cheung So, “An improved DV-Hop
localization Algorithm for Wireless Sensor Networks”, 3rd IEEE Conference on Industrial
Electronics and Applications (ICIEA), June 2008, p.1557-1561.
[MJL’06] M. Yin, J. Shu, L. Lin-lan, et al, “The Influence of Beacon on DV-hop in Wireless
Sensor Networks”, Fifth International Conference on Grid and Cooperative Computing
Workshops, Hunan, China, 21-23 Oct. 2006, p.459-462.
[RLT’11] Réjane DALCE, Linqing GUI, Thierry VAL, Adrien VAN DEN BOSSCHE, Anne
WEI, “Localisation par méthodes «range-based» et «range-free» de stations mobiles
communicantes dans un réseau sans fil”, CFIP 2011 - Colloque Francophone sur l Ingénierie des
Protocoles (2011).
[MAT’00] http://www.mathworks.com/products/matlab/
[MIN’01] http://www.sciences.univ-nantes.fr/sites/fethi_aloui/matlab/11intro/11intro.htm
Afef Ghabri
تندرج هذه األطروحة في اطار اقتراح طريقة لتتبع المرضى و تحديد مواقعهم: الخالصة
الهدف.الجغرافية عن بعد في وحدات الرعاية الصحية و هي وسيلة لالستخدام في األماكن المغلقة
الرئيسي من هذه الدراسة يتمثل في ضمان الدقة في تحديد المواقع مع التخفيض في استهالك الطاقة
.فالتكلفة
Abstract: The originality of our project concerns the proposal and the
simulation of a geolocalization method in order to track patients in a
medical environment for indoor use. The main goal of this study is to
achieve a good compromise between positioning accuracy, computation
complexity and energy cost.
, الدقة,األماكن المغلقة, الرعاية الصحية, عن بعد, الجغرافية, تحديد المواقع, تتبع: المفاتيح
.التكلفة, استهالك الطاقة