Académique Documents
Professionnel Documents
Culture Documents
Guillaume DE LA ROCHE
Aout 2003
1/41
Résumé du rapport
Après une synthèse de ces méthodes, nous proposons la mise en oeuvre de deux de ces techniques,
une méthode appelée smoothing-MUSIC, et une méthode de maximisation de vraisemblance par
minimisation quadratique.
Ces deux méthodes sont testées dans le contexte de notre application, et un certain nombre de
résultats en termes de performances sont fournis.
Enfin, après avoir choisi la méthode smoothing MUSIC nous illustrons par l'exemple d'un
environnement plus complexe le problème des multiples chemins dans un environnement in door, et
en particulier l'apparition des échos dus aux obstacles.
2/41
Remerciements
M. Stéphane Ubeda, directeur du CITI, où j'ai pu réaliser mon stage, ainsi que tous les autres
membres de ce laboratoire.
M. Jean-Marie Gorce, mon tuteur pendant ce stage de DEA, qui a pu me conseiller et m'aider à
avancer dans mon travail de recherche.
Mme Monique Chiollaz pour avoir été mon interlocuteur école auprès de CPE et pour avoir accepté
de me rencontrer et de m'aider dans la recherche de références bibliographiques.
Mme Nicole Gache, responsable de la promotion ETI3, qui assistera à ma soutenance de stage.
3/41
Sommaire
1. Introduction .................................................................................................................................. 5
4/41
1. Introduction
Ces dernières années nous ont montré un développement important des réseaux locaux
sans fils, qui ont l'avantage de supprimer les câblages, et de pouvoir communiquer de façon mobile.
La norme 802.11 a été définie par l'organisme IEEE pour essayer de donner des règles et
uniformiser les différents fabriquants, elle a en particulier défini un mode d'utilisation "Point
d'accès" qui se base sur le modèle de la téléphonie cellulaire: Des relais fixes assurant la
communication entre les utilisateurs mobiles sont placés en différents endroits de l'environnement,
de manière à assurer une meilleure zone de couverture possible (pas de coupure quand on passe
d'un relais à l'autre). Il est donc intéressant de développer des simulateurs de réseaux sans fils, qui
nous permettent de calculer les endroits optimaux où placer les relais, et donc d'avoir une qualité de
service la meilleure possible.
De plus on assiste aussi ces derniers temps au développement d'un nouveau type
d'antenne pour les réseaux radio: ce sont les antennes intelligentes qui devraient pouvoir apporter
une solution au problème de saturation dans les réseaux, du au nombre trop élevé d'utilisateurs par
rapport au nombre de fréquences disponibles. Il serait donc intéressant d'essayer d'intégrer dans un
simulateur de réseau mobile le modèle des antennes intelligentes, pour simuler les avantages réels
que présenterait ce type d'antenne.
Dans la partie 2, après avoir présenté le principe du simulateur, nous introduisons les
bases du traitement d'antennes. Nous expliquons alors pourquoi il est nécessaire dans ce simulateur
d'effectuer une décomposition des différents angles d'arrivées du signal émis par une seule source
en un point de réception donné.
Après une courte description du modèle de canal sous-jacent, nous expliquons l'objectif de la mise
en place des techniques de DOA dans ce simulateur : il s'agit de pouvoir simuler et évaluer les
techniques de traitement d'antennes.
La 3ième partie présente un résumé des différentes techniques d'estimation de DOA, trouvées dans la
littérature, et nous concluons par une comparaison et une analyse adaptée à notre problème qui
conduisent au choix de 2 méthodes.
Dans la 4ième partie, nous présentons la mise en oeuvre de ces deux méthodes (smoothing-MUSIC, et
une méthode de type MLE (Maximum Likelihood Estimation).
Nous présentons quelques tests effectués avec ces deux méthodes sur des ondes planes puis sur des
résultats de simulations dans la partie 5, pour ensuite choisir une méthode et illustrer par un
exemple.
5/41
2. Positionnement du problème
2.1.Le simulateur
K. Runser nous décrit dans [18] les différents modèles qui ont été développés pour
pouvoir calculer les zones de couvertures d'une source dans un environnement.
Les premiers à avoir été utilisés sont des modèles empiriques statistiques et sont
utilisés par les opérateurs de téléphonie. Ils sont basés sur des campagnes de mesures en milieu
rural ou urbain, et permettent d'avoir une bonne approximation de la réception dans des systèmes de
grande taille. ils sont en revanche mal adaptés aux milieux indoor du fait des phénomènes de
réflexion et de diffraction .
Ensuite les méthodes de lancer de rayon (Ray Tracing) ont été utilisées à partir de
1991 par McKnown pour simuler la propagation dans des environnements fortement réflectifs,
comme les milieux urbains denses, ou plus récemment les milieux indoor
Ces techniques basées sur une approximation géométrique du phénomène de propagation
sontpotentiellement très rapide. Malheureusement, plus le nombre de réflexions est grand, plus le
temps de calcul augmente. Si ces techniques semblent adaptées au urbain dense, pour lequel 3 ou 4
réflexions suffisent à prendre en compte la majorité du signal, elles sont en revanche beaucoup
moins efficaces en Indoor où le nombre de rayons à lancer augmente fortement. D'autre part, les
effets de diffraction à prendre en compte en Indoor (angles de murs, portes, ...) , exigent la mise en
oeuvre de la théorie unifiée de la diffraction (UTD), très coûteuse en nombre de rayons à lancer.
Les méthodes discrètes, par éléments finis, n'ont été que peu utilisées dans le contexte
de la planification radio, à cause de leurs besoins en ressources de calcul. Toutefois, en 1997,
Choppard et al. [30] ont proposé d'adapter la méthode TLM (méthode des matrices de lignes de
transmission). Ils ont mis en place un automate temporel qui calcul le champ exact (dans une
certaine mesure), en tout point. Bien que relativement long certaines approximations et l'utilisation
du calcul parallèle ont permis la mise en oeuvre d'un logiciel de simulation pour le GSM en zones
urbaines.
Cette méthode a été reprise par Gorce et al. en 2001 [29]. Dans cette dernière approche, le problème
a été transposé dans le domaine fréquentiel, se ramenant alors à un problème de résolution d'un
système linéaire. Une approche multi-résolution a été mise en oeuvre, réduisant drastiquement les
temps de calcul.
remarque: l'échelle de couleur correspond à une reception de 20 (foncé) à -140 (clair) dBm environ.
6/41
Ce simulateur, nécessite plusieurs fichiers de données en entrée, permettant de définir
l'environnement (les différents éléments et leur indices), les sources (leur position et leurs
caractéristiques), et les ondes (vitesse, fréquence). On obtient en sortie la valeur du champ
(amplitude et phase) en chaque point de l'espace (la distance entre les points c'est à dire le pas de
résolution est configurable). La figure 1 nous représente l'allure d'une zone de couverture calculée
par le moteur (logarithme de la valeur absolue du champ calculé par le moteur) pour une source
dans un environnement formé de quatre murs obstacles.
Dans notre cas, et pour l'analyse des angles d'arrivée, le moteur de calcul nous fourni directement
une image complexe décrivant amplitude et phase en chaque point du plan, de l'onde résultante.
7/41
capteurs (disposition et distances inter capteurs), il est alors possible grâce à des traitements
d'antenne de trouver les directions des utilisateurs, et de créer des lobes qui favorisent des
directions, et des zéros qui pénalisent les autres. Nous ne rentrerons pas plus dans les détails sur ces
techniques de traitement d'antennes, mais cette brève introduction met en évidence que la seule
connaissance du champ en un point dans les simulations ne permet pas de simuler ces systèmes. Il
est en effet nécessaire de connaître les différents angles d'arrivée des ondes.
C'est donc ce que propose ce travail, c'est à dire la mise en oeuvre de techniques de DOA, pour
l'analyse de la répartition angulaire des ondes émises par une source, dans une zone du plan simulé.
Les méthodes classiques de DOA travaillent en général avec une barrette linéaire de
capteurs. Il faudra dans notre cas étendre les méthodes retenues aux réseaux 2D d'antennes.
Il faudra évaluer l'influence du pas et du nombre de capteurs sur la précision des résultats et le
nombre de raies résolvables.
Avant de travailler sur les simulations du moteur de propagation, nous travaillerons sur
des simulations obtenues par la superposition d'ondes planes (voir paragraphe 5.1), permettant de
connaître la répartition angulaire théorique.
Il est important de préciser que dans notre cas nous avons une utilisation assez
particulière des algorithmes de DOA: on ne cherche pas à séparer différentes sources (comme c'est
normalement le cas), mais on n'a une seule source qui se propage sur un canal radio à chemins
multiples. (à cause des différentes réflexions de l'environnement indoor.)
Les méthodes de DOA étant diverses nous présentons dans la partie suivante un bref
aperçu des principales familles de ces méthodes. Comme le simulateur travaille en régime
harmonique (mono-fréquence) nous présentons ici uniquement les méthodes de DOA à bande
étroite, Les techniques large bande, qui exploitent plusieurs raies du spectre, nécessiteraient
plusieurs simulations harmoniques. Bien qu'envisageable, nous avons exclu dans un premier temps
leur mise en oeuvre dans ce travail.
Enfin, ces méthodes se basent sur l'approximation onde plane, il faudra donc vérifier que cela ne
pose pas de problème avec le simulateur, car en réalité les sources émettent des ondes sphériques
(plus on s'éloigne de la source plus l'approximation sera bonne).
8/41
3. Les algorithmes de DOA
Le transformée de Fourier est la première méthode qui a été utilisée pour détecter les angles
d'arrivées des signaux. Le principe est de réaliser la transformée de Fourier dans l'espace des
signaux reçus. Si on trace cette fonction pour une onde donnée, on obtiendra un pic d'énergie pour
la direction dans laquelle se situe la source, donc dans le cas de la superposition de plusieurs ondes
on a des pics pour chaque DOA. Cette technique nécessite de prendre de nombreux capteurs si on
veut arriver à des résultats précis. Dans [21] Mehrdad Soumekh montre qu'on arrivera à séparer
1
2
2Md (1)
Si ces techniques ont longtemps été utilisées pour détecter des sources, en particulier dans les
domaines des radars et des sonars, elles n'offraient pas des précisions suffisantes et il a rapidement
fallu faire appel à des techniques plus puissantes. Ainsi détecter une source avec un réseau de 8
capteurs permet d'avoir une précision de l'ordre de 30 degrés. Dans les années 80 ont donc été
développées les méthodes à haute résolution permettant d'avoir des précisions beaucoup plus
importantes. En effet si Fourier nous permet de déterminer les angles en parcourant une courbe
formée d'autant de points que de capteurs, les méthodes hautes résolution ont un pas qui peut être
aussi faible que désiré.
Les figures 3 et 4 nous montrent l'allure des spectres obtenus pour une source et un réseau linéaire
de 10 antennes, par Fourier puis par une méthode haute résolution (MUSIC).
Fig.3: spectre Fourier (1 source 10 capteurs) Fig.4 : spectre MUSIC (1 source 10 capteurs)
9/41
3.2.Méthode de prédiction linéaire: Prony
Cette méthode a été la base des méthodes à haute résolution, elle a été présentée en 1795 et est
basée sur une décomposition du signal en une somme d'exponentielles. Prony à montré ([11,
p58],[6]) qu'une exponentielle e j t echantillonnée en ek
j nt
z nk verifie la relation de k
récurrence:
x p z L x p 1 0 ce qui équivaut à 1 z l z 1 X l z 0
Si L exponentielles sont présentes et qu'il n'y a aucun bruit la relation devient:
X z 1
1 z z 0 (2)
z1 z 1 1
L
En posant alors b z 1
z z 1
z z 1
b z
b z
b z
1 la relation (2) est
1 1 2 L
1
équivalente à une relation de récurrence x b x
b x . On peut déduire de cette
L
p
1 2
L p L
L
1 p 1
relation un système à L équations et L inconnues du type:
xL 1
xL x1 b1
xn
xL 2
xL
1
x2
b2
(3)
x 2L x 2L 1 xL bL
En résolvant ce système et dans le cas où il n'y a aucun bruit la solution est unique et on peut en
déduire les L DOAs.
Les méthodes de maximum de vraisemblance, sont basées sur une estimation sans biais et à
variance minimale, l'estimation est d'autant meilleure que le nombre de réalisations est important.
La méthode la plus connue dans ce domaine a été développée par Capon ([11 p117]), elle permet à
partir de plusieurs échantillons de signaux reçus x, d'estimer l'amplitude d'une source en fonction de
la direction , en l'écrivant sous la forme:
f h H
x (4)
10/41
Si on appelle les sources s et x les signaux reçus, pour chaque capteur du réseau linéaire le signal
reçu est tel que
L L
xm t al sl t al sl t e
j2 f m l
l m l l
l 1 l 1
si on pose:
a l a1 l e
j2 fc 1 l
a2 l e
j2 fc 2 l
aM l e
j2 fc k l T
et:
A a 1
a 2
a L , x t x1 t x 2 t xM t T
, s t s1 t s 2 t sL t T
on a alors:
x t A s t (5)
x t A s t b t (6)
T
Comme l'amplitude s doit être restituée sans biais cela impose que h a 1 . De plus b est
supposé de valeur moyenne nulle et décorrélé avec s, la variance du bruit doit être minimale, donc
H
h R b h doit être minimale. On déduit de ces hypothèse que tout ceci équivaut à
H
h RX h ! a2 " h H
Rb h minimale, dont la solution est:
11/41
cette fonction est maximale pour correspondant à l'angle de la source.
Pour calculer Rx on a une estimée grâce à la formule suivante:
t
N
RX 1
x t x
H
t (10)
N t 1
avec N le nombre d'échantillons, c'est pourquoi plus le nombre de mesures est élevé plus le résultat
sera pertinent.
Notons cependant, que cela est vrai à condition que les sources soient décorrélées. C'est le cas en
général, quand on récupère un signal x(t) contenant plusieurs sources radios distinctes, et que les
signaux sont décorrélés dans le temps. Ce n'est pas le cas lors de la présence d'une seule source, et
de plusieurs échos liés aux chemins multiples. Nous revenons sur ce problème dans le chapitre
suivant.
Les méthodes des sous espaces ([9],[1]), font suite historiquement à la méthode de Capon, elles
s'appuient sur une décomposition de l'espace en un espace bruit et un espace signal par recherche
des valeurs propres.
C'est Pisarenko qui a eu l'idée en 1973 de faire une SVD sur la matrice d'auto-corrélation du signal,
et d'exploiter les données, en montrant que la plus petite valeur propre correspondait au bruit, ce qui
permettait de faire une décomposition de l'espace et de déduire les angles.
A partir de là deux méthodes on été développées, la méthode MUSIC et la méthode ESPRIT, elles
sont très largement utilisées dans de nombreuses applications.
Cette méthode est très répandue car facile à mettre en oeuvre c'est pourquoi elle a été utilisée dans
de nombreuses applications. Elle nous est décrite dans [1].
Si on reprends la relation (6) montrée dans le paragraphe précédent x t A s t b t on
déduit E x t x t H
R X ARS A
H
R B d'où:
RX ARS A H
2
I (11)
n
où est la variance du bruit.
En calculant les valeurs propres de Rx estimé (formule 10), puis les vecteurs propres
correspondants (classés par ordre de valeurs propres décroissantes), on obtient donc M vecteurs
propres, dont les L premiers correspondent au sous espace du signal Es, et les M-L derniers au sous
espace du bruit Eb
ES
e1 e 2 e L
EB
e L 1 eL 2 eM (12)
12/41
En pratique on ne connaît pas forcement la valeur L, on peut donc utiliser un seuil, les valeurs
propres faibles correspondant au bruit, et les autres au signal.
On va ensuite tracer une fonction de coût qui réalise une projection de l'espace bruit sur l'espace
signal, donc qui cherche en fait pour quelles valeurs de l'espace bruit est orthogonal à l'espace
signal ce qui correspond à une DOA. Cette fonction est en fait un spectre en fonction de
maximal pour une DOA (car dénominateur tend vers 0). La fonction de coût de MUSIC est la
suivante:
a a
PMUSIC (13)
a En En a
Pour que l'algorithme fonctionne il faut forcément avoir un espace bruit et un espace signal, la
dimension de l'espace total étant égal à M, si on prend un espace bruit de taille minimale soit 1 la
dimension de l'espace signal nous donne le nombre maximal de sources pouvant être détectées soit
M-1. La condition de fonctionnement de l'algorithme est donc:
L M 1 (14)
Comme pour la méthode de Capon, cette approche marche exclusivement pour des sources
décorrélées.
Différentes versions ont été développées pour faire face à différents problèmes de la version de base
de MUSIC et pour répondre à certaines conditions particulières.
Root-MUSIC ([17])
Cette technique a pour objectif de décorréler les signaux. Si les signaux sont parfaitement
décorrélés, la matrice Rs est diagonale et dans ce cas R est centro-hermitienne ce qui équivaut a:
R X rm J R X J avec J matrice d'échange contenant des zéros partout sauf sur son antidiagonale
qui est à 1.
On applique donc MUSIC avec une nouvelle matrice d'auto corrélation Rx root construite comme
la moyenne de deux matrices:
R X root
1
2
RX J RX J (15)
ceci est équivalent à doubler le nombre N des échantillons de mesures. La relation (11) de MUSIC
de base devient donc:
1 1
RX J RX J A RS D RS D A H 2
n I (16)
2 2
Unitary-MUSIC ([17])
Cette méthode à pour objectif d'accélérer les calculs en réduisant la complexité de ceux ci. En effet
13/41
avec MUSIC de base les valeurs de x(t) sont complexes et on travaille donc avec des matrices à
valeurs complexes pour tous les calculs. Pesavento et Gershman, ont montrés qu'en d'effectuant une
transformation T pour rendre les matrices R à valeurs réelles on simplifie les calculs et on obtient
les mêmes résultats.
La nouvelle matrice d'auto corrélation à valeurs réelles devient:
H
C QM R Q M (17)
1
2 n j n
2
n 0 j n
R total
R sous réseau i (18)
i
1
On peut vérifier facilement que le nombre de sous réseaux de longueur N d'un réseau de M capteurs
est (M-N+1).
Cette approche permet de décorréler des sources corrélées (ou des échos multiples d'une même
source). En effet, le déplacement d'un sous-réseau permet de décorréler deux sources dont les
directions d'incidence diffèrent.
Cyclic-MUSIC ([28])
La méthode cyclique a été développées ces derniers temps avec la découverte des phénomènes de
cyclostationnarité. En effet il a été montré que dans tous les signaux créés par l'homme, on arrive à
retrouver des phénomènes cycliques ([27]). En tenant compte de ces évènement cycliques, on arrive
à créer de nouveaux paramètres dans l'équation de MUSIC ce qui augmente le nombre d'inconnues
pouvant être trouvées. Ainsi au lieu de M-1 DOAs avec MUSIC, cyclic-MUSIC permet de résoudre
2M-1 DOA, ce qui équivaut à doubler virtuellement le nombre de capteurs.
Ces techniques essayent d'améliorer la décorrélation des sources, bande étroite en se basant sur les
périodicités intrinsèques des différents signaux émis.
14/41
3.4.2.1.La version de base
Esprit calcule les DOAs par rapport à un déplacement du réseau linéaire ([14]). On travaille avec
deux réseaux d'antennes X et Y identiques déplacés d'un vecteur et on obtient la mesure des
angles par rapport à la direction de
En général le plus simple est de ne travailler qu'avec un seul réseau de M antennes que l'on
décompose en deux sous réseaux X et Y de dimension M-1, correspondant alors à l'écart entre
deux antennes.
y t A s t bt (19)
où est une matrice diagonale de dimension L L dont les éléments non nuls valent
e
j2
cos
l
, l 1 L
de plus les matrices Ux et Uy sont liées à A par une transformation T telle que
U x AT et U y A T (21)
en substituant (21) dans (20) il résulte A T AT soit T T 1
les valeurs propres de sont donc les éléments diagonaux de et les colonnes de T sont les
vecteurs propres de
15/41
on trouve ensuite les angles d'arrivée par la formule suivante:
arg
n arccos
2
l
,l 1 L (21)
Les mêmes modifications que pour MUSIC ont été appliquées à ESPRIT à savoir la version root
pour décorréler, la version unitary pour accélérer les calculs, la version smoothing pour augmenter
l'ordre des matrices d'auto corrélation, et enfin la méthode cyclic qui permet de détecter plus de
sources en tenant compte des informations cyclostationnaires contenues dans le signal. ([11],[14],
[25],[26])
3.5.Minimisation quadratique
C'est méthodes ont pour but de minimiser un critère, pour avoir le maximum de vraisemblance avec
le résultat théorique ([3], [12]).
Il est possible de procéder de diverses manières, nous présenterons la méthode décrite dans [16].
On travaille dans le cas d'un réseau linéaire d'antennes, avec L le nombre de sources et M le nombre
de capteurs.
Si on reprend la relation 6 on a x t A
s t b t et en passant en Fourier on peut écrire
X A
S B avec A
la matrice qui contient les déphasage apporté par le réseau linéaire:
1 1
exp j exp j L
d sin
0 1 0
A avec l
l
c
exp j M 1 0 1
exp j M 1 0 L
Dans cette méthode n considère le problème comme un problème inverse, en essayant de minimiser
un critère MCR aux moindres carrés:
mcr X AS
2
(24)
Si on fait comme dans le cours de Giovanelli ([7]), on développe cette norme et on obtient:
mcr H H
X AS H X AS X X X AS S A X S A A S
H X H H
et en calculant la dérivée de mcr selon S:
d mcr d X X
H
! H
X AS ! H
S A X
H
" H
S A AS
H
16/41
la valeur de S qui annule la dérivée est:
S AH A
1
AH X (25)
X
A AH A
1
AH X (26)
c'est ce terme qu'on doit minimiser et qui ne contient comme seule inconnue que le vecteur
contenu dans A.
Nous avons brièvement présenté les principales méthodes utilisées pour détecter les angles d'arrivée
des sources, il nous faut maintenant en choisir certaines et les implémenter pour les tester dans le
cas de notre application.
Nous les adapterons au simulateur en tenant compte de nos contraintes, en particulier en utilisant
des réseaux de capteurs bidimensionnels, qui pourront nous apporter plus de précision dans les
résultats.
Le nombre des méthodes présentées précédemment est relativement important mais il est possible
d'en écarter un certain nombre du fait des spécificités de notre application.
Nous éliminons la méthode de Fourier qui n'est pas du tout assez précise en ce qui nous concerne
(En travaillant en environnement indoor, la complexité de l'environnement et les nombreuses
réflexions sur les obstacles, nous obligent à opter pour des résultats précis, et une forte capacité
discriminante)
La méthode de Prony pourrait être intéressante, car si elle est très sensible au bruit, ce qui est un
problème dans les applications pratiques, ce n'est en revanche pas un problème en simulation,
puisque les simulations sont exemptes de bruit additif. Elle est basée sur la modélisation
autorégressive, d'une somme de sinusoïde.
En pratique deux phénomènes l'excluent dans notre cas:
-les ondes que l'on traite ne sont pas tout à fait des ondes planes. Il s'en suit que le signal spatial
obtenu sur un réseau linéaire de capteurs ne sera pas tout à fait sinusoïdal, on risque donc d'avoir un
grand nombre de raies parasites.
-L'extension au réseau bidimensionnel n'est pas triviale car la modélisation AR qui repose sur la
causalité, n'a pas de sens en 2D. Il existe plusieurs modélisations AR, que nous ne développerons
pas dans ce mémoire.
Les méthodes suivantes (Capon, MUSIC,ESPRIT) se basent sur le calcul de la matrice d'auto-
corrélation Rx des signaux reçus sur les différents capteurs. La recherche des angles d'arrivée est
17/41
basée sur la recherche des valeurs propres de cette matrice, et sur l'hypothèse que les sources
émettent des signaux décorrélés. Or, dans le problème d'une source et de chemins multiples, les
sources sont par définition corrélées puisqu'elles constituent le même signal.
La notion de temps n'existe pas, c'est d'ailleurs la raison pour laquelle nous travaillons dans le
simulateur en mode fréquentiel. le calcul de Rx est équivalent à Rx=x n x H n
Si nous souhaitons adapter une méthode qui se base sur le calcul de la matrice d'autocorrélation Rx
du signal il faut donc créer de la diversité, ou décorréler les différents échos de la même source.
C'est ce que permet de faire la méthode smoothing MUSIC (ou MUSIC lissé).
Dans cette approche on décompose un réseau linéaire de capteurs en sous-réseaux.. Chaque sous-
réseau reçoit donc un signal. Chacun de ces signaux est considéré comme une réalisation
particulière. Lorsque l'on compare les signaux reçus sur deux sous réseaux, les différences
dépendent entièrement de l'angle d'arrivée de l'onde.
On crée de cette façon une diversité de sources, bien que la source soit la même initialement.
Le rang de R (donc le nombre maximal de DOAs détectables) sera au mieux égal au nombre de
sous réseaux ([5],[13]).
Dans les deux cas il faut adapter ces méthodes au simulateur, en particulier pour tenir compte du
caractère bidimensionnel de nos réseaux d'antennes virtuels.
Nous allons maintenant nous focaliser sur les méthodes smoothing-MUSIC et la minimisation
quadratique pour essayer de les adapter à notre moteur.
Comme les zones calculées par le moteur de propagation sont en réalité une grande matrice
contenant les amplitudes et phases en chaque point, il est intéressant d'exploiter le plus de données
possibles pour une meilleure précision des résultat, c'est pourquoi au lieu de nous limiter à des
réseaux linéaires de M capteurs nous allons adapter les méthodes au cas M*M capteurs, c'est à dire
que nous allons simuler des réseaux carrés d'antennes. Cette évolution 2D permettra en plus de
lever une indétermination due aux réseaux linéaires: en effet un algorithme de DOA appliqué sur un
réseau linéaire va en étudiant les déphasages entre capteurs déduire la valeur de l'angle sans en
connaître le signe, alors qu'en exploitant les données en deux dimensions on pourra faire la
18/41
différence entre un angle
et un angle
4.2.1.Adaptation de smoothing-MUSIC
Nous avons vus précédemment que les étapes de l'algorithme smoothing-MUSIC linéaire sont les
suivante:
-couper le réseau de M capteurs en m sous réseaux
-pour chaque sous réseau i calculer la matrice d'auto corrélation Ri du signal à partir des valeurs des
champs du sous réseau.
-calculer la matrice d'auto corrélation globale R comme la somme des matrice Ri.
-réaliser une décomposition en valeurs singulières de cette matrice, et trier les vecteurs propres en
fonction des valeurs propres pour obtenir un espace signal et un espace bruit.
-Pour chaque calculer la matrice des vecteurs direction a (la matrice qui permet de tenir
a
a
compte des déphasages introduits par la géométrie du réseau) puis calculer la fonction de coût
P MUSIC
a
E E a
n n
-rechercher les DOA qui sont les valeurs de correspondant à des pics de cette fonction de coût.
Il va falloir adapter le calcul de a puis le calcul de la matrice d'auto corrélation, et enfin la
décomposition en sous réseaux, au cas de deux dimensions.
La précision de l'algorithme MUSIC dépend seulement de la taille des sous espaces, et plus la
dimension des espaces est élevée, plus il sera possible de détecter de sources. Si nous prenons un
sous réseau linéaire de M capteurs, lors du calcul de R on obtiendra une matrice de dimension
M M
Avec un réseau carré, nous avons M*M capteurs, donc si nous ne tenons pas encore compte du
problème de la corrélation entre les signaux il est possible d'avoir une matrice R de dimension
M 2 M 2 ce qui permet de détecter beaucoup plus de sources. Pour cela il faut créer un
nouveau vecteur x(t) de dimension M 2
1 à partir du champ reçu.
x1 xM 1
x M 1 M 1 x1
xM
x M
champ
x2
x2
2 1 M 2
-> x t
xM x 2M
xM 2
xM 2
Lorsqu'une source S émet une onde plane qui arrive sur un réseau linéaire de capteurs avec un angle
celà implique des déphasages entre les signaux perçus sur chaque capteur (voir figure 8).
19/41
Fig.8 : onde plane arrivant sur un réseau linéaire
On remarque assez facilement que la distance dr du déphasage entre deux capteurs vaut d sin
La matrice des vecteurs direction a qui contient tous les déphasages apportés par le réseau
1
j2 f
d sin
c
e
a
j2 f
M
1 d sin
c
e
Dans le cas d'un réseau rectangulaire il faut tenir compte des déphasages dans les deux dimensions
(voir figure 9)
La distance dr est cette fois construite à partir de dr1 et dr2 et on peut vérifier que dr1 d sin
et dr2 d cos
20/41
j2
c
fd
cos j2
c
fd
M 1 cos
1 e e
j2
c
fd
sin j2
c
fd
sin cos j2
c
fd
sin M 1 cos
e e e
déphasage
j2
c
fd
M 1 sin j2
c
fd
M 1 sin
cos j2
c
fd
M 1 sin
M 1 cos
e e e
Tout comme nous avons fait pour x(t) on crée à partir de cette matrice des déphasages de dimension
M M un vecteur a de dimension M 2
1 c'est à dire qu'on transforme la matrice en
vecteur:
déphasage ->
T
j2 fd
cos j2 fd
M 1 cos j2 fd
cos j2 fd
M 1 cos
M 1 sin
a
1 e c
e c
e c
e c
Nous avons donc modifié les matrices x(t) et a pour le cas 2D, ce qui a pour effet d'augmenter
la dimension de l'espace donc le nombre de sources détectables. Il faut aussi adapter la variante
smoothing en 2D, donc adapter la décomposition en sous réseaux pour le cas 2D.
La figure 10 nous montre la décomposition en sous réseaux du réseau dans le cas linaire, et la
décomposition dans le cas 2D que nous avons choisie.
Dans le cas linéaire, le nombre de sous réseaux était de M-m+1, dans le cas des deux dimensions
nous avons donc (M-m+1)² sous réseaux.
Nous avons donc adapté la méthode smoothing-MUSIC au cas 2D, ce qui nous permettra de
travailler sur plus de capteurs et d'améliorer la détection.
21/41
-calculer la matrice A des vecteurs direction.
-appliquer une méthode de recherche de valeur de minimisation du critère:
mcr X A AH A
1
AH X
2
Pour la méthode de récupération de champ on fait la même adaptation que pour MUSIC à savoir la
transformation de la matrice de champ en un vecteur colonne. , sauf que
Tout comme les méthodes de Capon, Esprit ou MUSIC, A a 1 a 2 a L
dans ces méthodes on utilisait juste un critère qui tenait en compte a . Pour pouvoir donc
constuire A celà nécessite de connaître le nombre L de sources, nous proposerons dans le
paragraphe suivant une méthode qui peut permettre de déterminer ce nombre. Pour le calcul de
a on fait exactement la même chose que pour smoothing-MUSIC, c'est à dire qu'on calcule
les déphasages et qu'on en transforme la matrice en vecteur.
Pour minimiser ce critère on utilise un algorithme de descente. On cherche une solution initiale en
se plaçant dans le cas où L=1 ce qui nous permet d'obtenir une source, puis on minimise le critère
aux moindres carré en fonction de 1 2
L en partant de cette solution initiale.
L'idéal pour appliquer cet algorithme est de connaître le nombre de sources mais cela
n'est pas forcément le cas. Dans l'article [19] V. Serebryakov nous propose une technique pour
évaluer le nombre de signaux arrivant, une autre méthode que nous proposons se base sur la SVD,
elle est très simple à mettre en oeuvre mais ne permet pas de trouver un nombre important de
sources (fonctionne seulement si L<=M-1)
Si on propage une onde plane de valeur initiale 1 et d'angle son champ dans un environnement
de taille n*n est le suivant en posant K= j2 f
d :
c
1 e
K cos
e
2 K cos
e
n 1 K cos
e
K sin
e
K cos
sin
e
K 2cos
sin e
K n 1 cos
sin
En faisant le rapport entre deux lignes successives on obtient e K sin donc cette matrice est de
rang 1 (quand on connaît K toutes les lignes se déduisent de la première)
Dans le cas de la superposition de l ondes planes, on fait l'addition de l matrices de rang 1, donc on
obtient une matrice au maximum de rang l (en fait on trouve toujours l sauf si il y a des ondes
d'angles identiques).
Si on veut connaître le nombre d'ondes planes il suffit alors de faire une décomposition en valeurs
singulières d'une matrice du champ, le nombre de valeurs propres (c'est à dire le rang de la matrice)
sera le nombre de sources. L'avantage de cette technique est la simplicité à mettre en oeuvre sous
Matlab, mais l'inconvénient est qu'elle n'est pas optimale en terme de nombre de sources détectables
(car le rang de la matrice est équivalent au maximum au nombre de lignes de la matrice)
22/41
5. Résultats des simulations
Nous allons essayer d'évaluer les deux méthodes, tout d'abord en réalisant des tests sur des ondes
planes théoriques que nous créons, pour essayer de faire un comparatif des deux algorithmes, en
dégageant les caractéristiques principales de chacun. Nous pourrons ensuite faire des simulations
sur les zones de couvertures calculées par le simulateur.
Pour simuler des ondes planes, nous avons créé une méthode qui propage une valeur initiale de
signal entrée (une valeur complexe qui contient l'amplitude et la phase), dans une direction
donnée. Pour cela il suffit de calculer la valeur du signal en chaque point en tenant compte des
déphasages entre les pixels en fonction de l'angle. La figure 11 nous montre par exemple l'allure
d'une onde plane d'angle 4 (on trace la partie réelle de l'environnement calculé)
23/41
Fig.12: somme de trois ondes planes d'angles ,
2 et
3
On pourra aussi simuler l'importance d'une source par rapport à une autre en amplitude, en les
multipliant chacune par un certain poids.
Nous testons tout d'abord la détection d'une onde plane avec les deux méthodes, pour essayer
d'évaluer la précision des résultats. Nous étudierons plus tard l'influence du nombre de capteurs M,
et pour l'instant nous fixons sa valeur. En effet nous verrons que pour la détection d'une seule DOA
théorique, deux capteurs sont suffisants, et l'ajout du nombre d'antennes n'apporte pas d'information
supplémentaire. Voilà par exemple les résultats obtenus pour une onde plane théorique de direction
210° avec un réseau de 3*3 capteurs: pour smoothing MUSIC nous obtenons la courbe de la figure
13, dont le pic est exactement centré sur 210, pour la méthode de minimisation on trouve la valeur
209,96. Nous réalisons donc plusieurs autres tests pour plusieurs angles pour vérifier la pertinence
de ces méthodes: le tableau A nous montre les résultats obtenus. Les angles donnés pour smoothing
MUSIC sont obtenus par une méthode que nous avons développée et qui extrait les pics de la
fonction. (cette méthode cherche les abscisses pour lesquelles le spectre vérifie trois conditions à
savoir: le spectre est au dessus d'un certain seuil, la dérivée est positive avant le point considéré, et
la dérivée est négative après le point)
24/41
Fig.13: spectre de smoothing-MUSIC pour un angle de 210° et un réseau de 3*3 antennes.
On remarque que la précision des résultats dépend du pas de résolution que nous utilisons pour
chercher les angles, ce pas de résolution correspondant pour MUSIC au pas que nous fixons pour la
création du spectre, et pour la méthode de minimisation au pas dans l'algorithme de descente (on
utilise la fonction FMINSEARCH de Matlab). Donc pour détecter une source l'erreur angulaire
maximale est égale au pas de résolution choisi dans l'application des algorithmes (c'est d'ailleurs
une des caractéristiques des algorithmes de DOA à haute résolution où plus on augmente la quantité
de calculs, plus on tend vers la ''vraie'' valeur.)
Nous essayons de vérifier cette précision dans le cas de plusieurs ondes planes superposées de
direction de propagation proche (on se place dans le cas où le nombre de capteurs est suffisant pour
détecter le nombre de sources, nous étudierons plus tard l'évaluation de ce nombre): nous observons
le même résultat que précédemment à savoir que les deux algorithmes sont capables de séparer
deux sources si la différence d'angle entre ces sources est inférieure au pas de résolution angulaire
des algorithmes multiplié par deux.
On peut illustrer cela avec la figure 14:
25/41
Fig.14 :Spectre de smoothing MUSIC avec un pas de 0.5° pour
des angles de 224° et 225°.
En pratique dans la suite des simulations on garde un pas de recherche de 0.5°, ce qui nous permet
de séparer des sources voisines de 1° et qui serait un résultat très satisfaisant pour notre simulateur.
Si ces algorithmes nous semblent donner des résultats satisfaisants il doit y avoir certaines
conditions à respecter pour que les résultats soient pertinents. La première concerne la disposition
géométrique des capteurs dans l'espace, et en particulier la distance entre ceux ci. Nous avons
effectué plusieurs tests avec les deux méthodes pour évaluer l'erreur sur l'angle mesuré en fonction
de la distance entre les capteurs.
26/41
La figure 15 nous montre le spectre obtenu avec smoothing MUSIC pour une DOA théorique de
220°, pour lequel on fait varier le rapport r de sorte que d r . Nous observons que pour une
valeur de r inférieure ou égale à 2 il y apparition de pics secondaires sur le spectre, et nous avons pu
vérifier avec de nombreux autres cas que cette valeur r doit être supérieure à 2 pour qu'une DOA
donne un seul pic sur le spectre.
En ce qui concerne la méthode de minimisation quadratique, nous avons tracé sur la figure 16
l'erreur obtenue sur le résultat en faisant varier la valeur de r, et nous avons pu vérifier que les
résultats ne sont corrects que pour un rapport r supérieur à 2.
Ainsi, nous avons montré que pour que ces algorithmes de DOA soient efficaces, il faut que la
distance entre les capteurs soit inférieure à 2 . C'est la condition de validité de ces algorithmes,
et si la distance est supérieure l'information contenue dans les déphasages ne permet pas de déduire
les angles.
On peut interprêter ce résultat par le théorème de Shannon: En effet, une distance inter-capteurs
supérieure à 2 est équivalent à un échantillonnage du champ electromagnétique à une
fréquence supérieure à deux fois la fréquence spatiale de l'onde.
Dans la suite de nos simulations nous nous placerons dans le cas où la distance entre les antennes
est telle que d 6 car c'est une valeur qui respecte la condition que nous venons de montrer, et
27/41
c'est aussi le pas utilisé par défaut dans le moteur de propagation. (Remarque: Dans le simulateur
les valeurs généralement utilisées pour simuler un réseau mobile sont une fréquence de 1 GHz et
une vitesse c=3e8 m.s-1 ce qui représente donc une distance entre antennes de 5 cm)
Si ces méthodes de DOA nous semblent toutes deux intéressantes, car elles donnent des résultats
aussi précis que la résolution à laquelle nous souhaitons monter, et elles respectent les conditions de
distances entre capteurs de notre moteur de propagation, il reste le problème du nombre de sources
détectables qui dépend entièrement du nombre de capteurs. Ainsi lorsqu'on travaillera sur les zones
de couvertures calculées par le moteur, l'environnement in door peut vite devenir complexe
(nombreux murs et obstacles, voir exemple en 5.6) ce qui peut entraîner un nombre très élevé de
réflexions du signal sur les parois, donc une seule source réelle sera en fait vue comme de
nombreuses sources virtuelles à cause des nombreux trajets. Il faut donc être capable de savoir
combien on détectera d'échos avec un nombre donné de capteurs.
Pour la méthode smoothing MUSIC, nous avons déjà vu précédemment que n'ayant qu'un
échantillon de mesure le rang de la matrice d'auto corrélation sera égal au nombre de sous réseaux
du réseaux de capteurs soit (M-m+1)², donc si on projette sur un espace bruit de taille minimale
c'est à dire 1 on a un espace signal de dimension (M-m+1)²-1 qui représente le nombre maximal
théorique de sources pouvant être détecté.
La figure 17 illustre les résultats que nous avons obtenus pour un environnement théorique composé
de la somme de 8 ondes planes pour 3 cas différents.
Le cas 1 permet en théorie de détecter (3-2+1)²-1 soit 3 sources, le deuxième cas 8 sources et le
troisième cas 15 sources. Le cas 2 aurait donc du suffire en théorie pour détecter les 8 sources mais
28/41
nous ne distinguons en réalité que 7 pics, c'est pourquoi il faut toujours avoir un nombre de capteurs
supérieur au nombre théorique minimal (comme dans le cas 3 par exemple)
Cela illustre donc le problème du dimensionnement qui est très important à prendre en compte, plus
le nombre de capteurs sera élevé plus les chances d'avoir un résultat correct sont élevées. La figure
suivante nous montre le même spectre pour un environnement de 12 ondes planes, avec en haut un
sur dimensionnement du nombre de capteurs minimal et en bas un nombre de capteurs insuffisant:
Comme nous l'avons vu précédemment, smoothing MUSIC fait intervenir la taille du réseau de
capteurs et la taille des sous réseaux, il y a donc deux paramètres (M et m) à utiliser, alors que pour
la méthode de minimisation seul le nombre M intervient c'est pourquoi il est intéressant de chercher
la valeur optimale pour m en fonction de M. (ainsi on supprime ce paramètre supplémentaire et les
deux méthodes seront mieux comparables)
Avec smoothing MUSIC, plus le nombre de sous réseaux est élevé plus on détecte de sources (car
plus le rang de R sera important), mais si le nombre de sous réseaux est élevé cela signifie que les
sous réseaux sont de petite taille d'où une détection moins élevée (car R sera de plus petite taille
donc moins de valeurs propres)! Il faut trouver le compromis entre ces deux facteurs.
On a donc cherché pour différentes tailles des réseaux la taille de sous réseau qui permet de détecter
un nombre maximal de sources.
M m optimal
3 2
4 2
5 3
29/41
M m optimal
6 3
7 4
8 4
Tableau B: dimension moyenne des sous réseaux de taille m*m permettant de
trouver le plus de sources possibles avec des réseaux de M*M capteurs.
On en déduit expérimentalement que la valeur m optimale est égale à M/2 arrondi à l'entier
supérieur. C'est la valeur qu'on gardera dans la suite des simulations, mais essayons tout d'abord de
prouver ce résultat:
Le nombre maximal de sources détectables est égal au minimum entre le nombre de sources
détectables par un sous réseau (m²-1) et le nombre de sous réseaux -1 (nombre de valeurs propres
non nulles) ce qui ce traduit par: L max Min M m 1 ² 1, m ² 1
Sur l'intervalle d'intérêt, 0<m<M, la deuxième fonction (m²-1) est croissante en m et la première
((M-m+1))²-1 décroissante.
Donc le minimum obtenu pour 0<m<M, est tel que les 2 fonctions soient égales ce qui est
M 1
A partir de là on peut déduire le tableau montrant le nombre de capteurs théoriques nécessaires (par
30/41
l'algorithme. (soit par la méthode proposée dans l'article [16] par la minimisation d'un terme en
fonction du nombre de sources, mais cette méthode est lourde en temps en nous n'obtenons pas de
résultats intéressants, soit par la méthode de SVD que nous avons décrite en 4.2.2.2 et que nous
utilisons ici) Voici les nombre de DOA détectables moyens que nous obtenons après avoir effectué
des tests sur plusieurs environnements.
On a vérifié que les deux méthodes choisie sont équivalentes au niveau de la précision des résultats
obtenus, de la capacité angulaire à séparer des sources, et de la condition d'espacement maximal des
capteurs d'une distance de 2 .
On a tout de même remarqué un avantage de la méthode smoothing MUSIC qui est la capacité à
détecter les sources en utilisant un nombre inférieur de capteurs. Il reste à voir si ces propriétés sont
aussi vérifiées pour les ondes calculées par le moteur, et en particulier le fait qu'on a travaillé sur
des ondes planes pour nos tests, alors qu'on ne fait pas cette approximation dans le moteur de
propagation.
Nous allons maintenant travailler sur des environnements calculés par le moteur de propagation.
Nous utilisons le moteur de propagation développé par le CITI sous sa version Matlab, et nous
récupérons une matrice de sortie contenant les valeurs de l'amplitude et de la phase en chaque point
de l'environnement. La distance entre les capteurs est de
6 ce qui représente une distance de
5cm.
Le premier environnement que nous choisissons d'utiliser pour nos tests est la zone de couverture
d'une source placée dans du vide. Voila la représentation de la valeur absolue du champ calculé.
31/41
Fig.19 : Tracé du module de la zone de couverture d'une source.
Si nous traçons la partie réelle du champ, comme nous le faisions pour représenter les ondes planes
théoriques, nous vérifions immédiatement ce à quoi nous nous attendions: les signaux émis par une
source dans le moteur de propagation sont des ondes circulaires.
Cela signifie que pour tous les tests que nous avons réalisés sur des ondes planes théoriques que
nous avons générées nous nous placions dans le cas ou le réseau d'antennes est à une distance
infinie de la source, il reste donc à voir si les méthodes de DOA sont encore valables pour les zones
de couverture calculées par le moteur.
Pour cet environnement on se place en différentes positions et on calcule l'angle de DOA pour
smoothing MUSIC puis pour la méthode de minimisation quadratique. On compare à l'angle
théorique calculé en appliquant les règles de trigonométrie (car on connaît la position de la source et
la position du réseau d'antennes). On a utilisé un réseau de 4*4 capteurs.
32/41
Position Angle théorique Smoothing MUSIC Méthode de
minimisation
50;40 90.00 91.5 90.00
50;60 102.53 103.0 94.29
50;80 113.97 112.0 111.62
50;100 123.69 124.5 122.21
Tableau C: angles obtenus en différents points de l'espace avec les deux méthodes.
Les deux méthodes permettent donc d'estimer l'angle de DOA pour une source avec dans cet
exemple une erreur maximale de 4% pour MUSIC et 8% pour la méthode de minimisation. Nous
étudions ensuite l'influence du nombre de capteurs pour la cinquième position (angle
théorique=113.97°)
Voici l'allure de la partie réelle du champ calculé pour deux sources placées en (20;40) et en (40;20)
33/41
Fig.21 : tracé de la partie réelle de la zone de
couverture de deux sources
Dans cet exemple les résultats sont assez identiques pour les deux méthodes et on est pas vraiment
capable de dire qu'une méthode est plus performante que l'autre ou non. On arrive avec les deux
méthodes à estimer les DOA, et suivant les positions on a des précisions différentes.
Si les deux méthodes semblent à première vue donner des résultats satisfaisants, un avantage qu'on
retrouve avec MUSIC est la possibilité d'exploiter l'importance d'une DOA par rapport à une autre.
En effet si la méthode de minimisation quadratique nous permet d'obtenir différentes valeurs
d'angles, la méthode MUSIC peut en plus estimer l'importance d'une source par rapport aux autres,
quand on tient compte de la hauteur des pics sur le spectre à parcourir. Ainsi si les sources sont
toutes identiques c'est à dire qu'elles émettent chacune des signaux d'amplitude égale, le rapport
entre les valeurs maximales des pics pourra par exemple servir à estimer la distance à laquelle se
trouve la source. Lorsqu'on travaille avec des ondes planes théoriques on vérifie que plus le nombre
de capteurs augmente plus le rapport entre les pics est égal au rapport entre les amplitudes. On a
testé cela en reprenant différents points x de l'environnement précédent de deux sources et en
34/41
distance source 1, x
calculant l'erreur entre le rapport r 1 théorique que l'on mesure, et le
distance source2 , x
rapport r 2
hauteur pic source1
que l'on mesure sur le spectre de MUSIC. La figure 22 nous
hauteur pic source2
permet de voir qu'à partir d'un réseau de 4*4 capteurs on a une erreur inférieure à 20% sur
l'évaluation des distances à laquelle se trouvent les deux sources.
r2 r1
Fig.22: erreur entre r 1 et r 2 en pourcentage (tracé de )
r1
5.3. Choix d'une méthode
Après les différents tests que nous avons effectués, si ces deux méthodes semblent assez
équivalentes au niveau des résultats quand on travaille sur des ondes planes théoriques, il ressort
néanmoins des avantages pour la méthode MUSIC.
En effet MUSIC a pour premier avantage de ne pas nécessiter la phase de recherche préalable du
nombre de sources, contrairement à la méthode de minimisation quadratique. Les principales
techniques pour détecter le nombre de sources avec la méthode de minimisation quadratique sont
celle proposée par P. Moghaddam dans [16] qui réalise une minimisation pour chercher une valeur
optimale de L mais nous n'obtenons pas de résultats satisfaisant, ou la méthode de SVD que nous
avons proposée mais qui ne permet pas de détecter un nombre optimal de sources.
Le deuxième avantage de la méthode MUSIC est la possibilité d'exploiter la hauteur des pics pour
connaître l'importance d'une source par rapport aux autres.
Pour simuler la phase de détection des angles d'arrivée d'une antenne intelligente dans le moteur de
propagation, nous choisissons donc la méthode smoothing MUSIC que nous avons adaptée, qui de
part les avantages précédemment cités est plus intéressante.
Ayant choisi la méthode smoothing MUSIC, nous allons effectuer des tests sur un environnement
complexe calculé par le moteur. Comme nous l'avons cité précédemment le simulateur travaille à
une fréquence de 1 GHz et une vitesse c=3e8 m.s-1. Comme le moteur est configuré sur un pas de
résolution de 6 on a donc une distance entre capteurs de 5 cm. Essayons de simuler les résultats
qu'on obtiendrait avec une smart antenna de dimension 20cm X 20cm (ce qui semble une taille
réalisable), on a donc un réseau de 4*4 capteurs qui devrait permettre au mieux de trouver (4-2+1)²-
1=8 DOAs. Nous utilisons un environnement formé de quatre obstacles et une source placée dans
35/41
l'angle supérieur droit. La figure 23 nous montre l'allure de la zone de couverture de cette source.
Nous allons maitenant observer les DOA obtenues pour différents points de l'environnement. Nous
choisissons les points A, B, C et D suivants:
A(200;60)
B(125;10)
C(100;10)
D(50;60)
La figure 24 nous représente les spectres obtenus pour ces différents points:
point A point B
point C point D
36/41
remarque: contrairement aux tests précédents le spectre n'est pas tracé en décibel, ainsi un pic deux
fois plus petit que l'autre correspond seulement à une atténuation de 3dB.
Les angles obtenus sont donc les suivants (les angles sont calculés par rapport à un axe vertical, en
partant du bas, dans le sens trigonométrique):
On trace alors directement sur la zone de couverture (lignes blanches) pour ces quatres points les
angles obtenus.
Fig.25 : tracé des directions des DOA obtenues sur la zone de couverture
pour les quatre positions A, B, C et D.
37/41
6. Conclusion, Perspectives
Après avoir présenté l'intérêt de simuler les antennes intelligentes dans un simulateur
de réseaux mobiles en milieu in door, nous avons montré que notre but était de calculer la
répartition angulaire du signal, à partir d'un bloc image extrait du champ calculé par le simulateur.
Pour se faire nous avons décidé d'implémenter les méthodes de traitement du signal appelées
algorithmes de DOA.
Après avoir présenté brièvement les différentes méthodes fréquemment employées pour la détection
des angles d'arrivée, nous avons ressorti deux méthodes intéressantes étant donné nos conditions de
travail:
-La méthode smoothing MUSIC qui est une amélioration de la méthode de sous espaces MUSIC et
qui par une phase préalable supprime la corrélation des signaux due au fait que nous ne disposons
d'un échantillon de mesure unique et que les signaux sont corrélés (car ce sont les échos dus aux
réflexions d'une même souce).
-La méthode de minimisation quadratique qui considère la détection des angles comme un problème
inverse et qui recherche les angles par un algorithme de descente.
Nous avons ensuite adapté ces méthodes au cas de notre moteur c'est à dire en utilisant des réseaux
bidirectionnels, et nous avons simulé les résultats en travaillant tout d'abord sur des ondes planes
théoriques, puis enfin sur des zones de couvertures calculées par le moteur. Ces tests nous ont
permis de choisir de préférence la méthode smoothing MUSIC qui présente quelques avantages aux
niveau des résultats et de la simplicité de mise en oeuvre.
Nous avons conclu nos expérimentations par l'exemple d'un environnement composé d'obstacles,
pour mettre en évidence la detection des différents echos dus aux obstacles.
Nous sommes maintenant capables de trouver, à partir d'un petit bloc image de la
simulation calculée par le moteur de propagation, les directions dans lesquelles se trouvent les
différents échos de l'environnement indoor. La prochaine étape qui serait intéressante à implémenter
est la simulation des traitements d'antennes effectués par l'antenne intelligente pour mettre des lobes
principaux et des zéros dans les directions des sources et des interférents.
De plus on pourrait aussi effectuer des mesures réelles en utilisant un vrai réseau d'antennes, pour
valider les résultats de nos simulations.
38/41
Bibliographie
[1] Mark H. Brady. Angle Resolution Techniques for Cellular Radio. EE 359 Wireless
Communications, December 2001, 12p.
[2] Donald F. Breslin. Adaptive Antenna Arrays Applied to Position Location: Thesis submitted to
the Faculty of the Virginia Polytechnic Institute and State University; August 1997, 67p.
[3] Mats Cedervall, Randolph L. Moses. Efficient Maximum Likelihood DOA Estimation for
Signals with Known Waveforms in the Presence of Multipath. In: IEEE Transactions on Signal
Processing, vol 45 n°3, March 1997. pp. 808-810.
[4] C-N Chuah, G.J. Foschini, R.A. Valenzuela. Capacity Growth of Multi-Element Arrays in
Indoor and Outdoor Wireless Channels. EECS Department, University of California.
[5] A. Delis, G. Papadopoulos. Enhenced forward/backward spatial filtering method for DOA
estimation of narrowband coherent sources. In: IEEE Proc Radar, Sonar, vol 143 n°1, February
1996. pp. 10-15.
[6] Giacinto Gelli, Luciano Izzo, Antonio Napolitano, Luigi Paura. Multipath-channel identification
by an improved Prony algorithm based on spectral correlation measurements. In: Signal Processing
31, pp. 17-29, june 1992.
[7] JF.Giovanelli Problèmes Inverses. Cours du DEA Images et Systèmes de l'INSA Lyon. Année
2002-2003, 35p.
[9] Suk Chan Kim, Iickho Song, Seokho Yoon, So Ryoung Park. DOA Estimationof Angle-
Perturbed Sources for Wireless Mobile Communications.In: IEICE Trans. Commun. Vol E83-B
n°11 November 2000.
[10] Ching-Wen Ma, Ching-Cheng Teng. Detection of Coherent Signals Using Weighted Subspace
Smoothing. In: IEEE Transactions on Antennas ans Propagation, vol 44 n°2, fevruary 1996. pp.
179-187.
[11] S. Marcos. Les méthodes à haute résolution-Traitement d'antenne et analyse spectrale. Edition
Hermes, Paris 1998, 783p.
[12] T.G. Manickam, R.J. Vaccaro, D.W. Tufts. A Least-Squares Algorithm for Multipath Time-
Dealay Estimation. In: IEEE Transactions on Signal Processing, vol 42 n°11, November 1994, pp.
3229-3233.
39/41
[13] A. Manikas,T. Ratnarajah BEng,Jinsock Lee. Evaluation of Superresolution Array-Techniques
as applied to Coherent Sources. In: International Journal of Electronics: 22nd September 1995
Published: January 1997, 31p.
[14] Cherian P. Mathews, Martin Haardt, Michael D. Zoltowski. Performance Analysis of Closed-
Forme, ESPRIT Based 2D Angle Estimator for Rectangular Arrays. In: IEEE Signal Processing
Letters, vol 3 n°4 April 1996, pp124-126.
[15] Tuan Nguyen, Zhi Ding. Blind CMA Beamforming for Narrowband Signals with Multipath
Arrivals. In: International journal of Adaptive Contral and Signal Processing, vol 12, pp. 157-172,
1998.
[17] Marius Pesavento, Alex B. Gershman, Martin Haardt. Unitary Root-MUSIC with a Real-
Valued Eigendecomposition: A Theoretical and Experimental Performance Study. In: IEEE
Transactions on Signal Processing, vol 48, n°5 pp1306-1314, May 2000.
[18] Katia Runser. La Planification de Réseaux Locaux sans Fils: Rapport de stage de DEA Images
et Systèmes INSA Lyon, 2002, 43p.
[20] Shiann-Shiun, Garret Toshio Okamoto, Guanghan Xu. Experimental Evaluation of Smart
Antenna System Performance for Wireless Communications. In: IEEE Trans. on Antennas and
Propagation, vol 46 n°6, june 1998. pp749-754.
[21] Mehrdad Soumekh. Fourier Array Imaging. PTR Prentice Hall Edited in 1994. 559p.
[23] John S. Thompson, Peter M. Grant, Bernard Mulgrew. Performance of Spatial Smoothing
Algorithms for Correlated Sources. In: IEEE Transactions on Signal Processing, vol 44 n°4, April
1996. pp. 1040-1046.
[25] Vladimir I. Vasilishin Kharkov, Direction of Arrival Estimation via Unitary TLS-ESPRIT
Algorithm with structure weighting.In: IEE Trans. On Signal Processing, vol39,pp.975-977, April
1991.
[26] Michael D. Zoltowski, Martin Haardt, Cherian P. Mathews, Closed-Form 2D Angle Estimation
with Rectangular Arrays in Element Space or Beamspace via Unitary ESPRIT. In IEEE
Transactions on Signal Processings, vol44 n°2, February 1996, pp. 316-328.
40/41
[27] P. Gourmay, P. Nicolas. Analyse Spectrale Cyclique et Analyse temps-fréquence pour
l'identification Automatique de transmissions. Thomason CFS-Division RGS Documentation. 1995,
4p.
[28] S.V. Schell. Performance analysis of the cyclic MUSIC method of direction estimation for
cyclostationary signals. In: IEEE Transactions on Signal Processing, vol 42 n°11, November 1994,
pp. 3043-3053.
[29] J-M. Gorce, S. Ubeda. Propagation simulation with the ParFlow method: fast computation
using a multi-resolution scheme. In: IEEE 54th Vehicular Technology Conference, Fall 2001, NJ,
USA, October 2001.
[30] B. Chopard, P.O. Luthi, J;F. Wagen, A lattice boltzman method for wave propagation in urban
microcells. In: IEEE Proceedings -Microwaves, Antennas and Propagation, vol 144 pp. 251-255,
1997.
41/41