Académique Documents
Professionnel Documents
Culture Documents
cos . .
2
t v X k = =
r
cos cos
2
1
C
v
f
t
f
d
=
=
k
r
Celles-ci peuvent rsulter de signaux multiples sajoutant de faon destructive au niveau du
rcepteur. Dans ce cas, le signal reu sera trs faible ou pratiquement nul. Les signaux
multiples reus peuvent galement sadditionner de faon constructive et le signal obtenu est
alors plus puissant que le signal du seul trajet direct.
3. Dcalage en frquence (Doppler shift) :
Leffet Doppler est un phnomne d au dplacement de la station mobile par rapport la
station de base. Il entrane une variation de la frquence du signal reu appele dcalage
Doppler. Ce dcalage en frquence dpend essentiellement de deux facteurs : la direction du
dplacement et la vitesse du rcepteur par rapport lmetteur. En notant la longueur
donde et f la frquence de la porteuse utilise, la frquence reue par un rcepteur de vitesse
relative v par rapport lmetteur est donne par : f = f - v/
Prenons par exemple le cas dun vhicule qui se dplace la vitesse v entre deux points X
et Y (Figure 4).
Figure 4 : Illustration de leffet Doppler
Pour ces deux positions, le rcepteur reoit une onde provenant de la mme source note
S. Celle-ci tant lointaine, langle entre la direction dincidence de la source et la direction de
dplacement du rcepteur est pratiquement le mme pour les deux positions X et Y. La
diffrence de marche x est telle que :
La diffrence de phase. est alors :
tant le vecteur donde. La frquence Doppler est alors donne par :
(2)
(3)
(4)
(5)
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
8
C
v
f f f
d d
= =
= , 0
max
La valeur absolue de la frquence Doppler est donc maximale lorsque prend les valeurs
0 ou , modulo 2. Dans ce cas, on note :
2. Antennes rseau dlments
Une antenne rseau dlments est un systme constitu dantennes lmentaires,
rparties dans lespace, dont les sorties sont pondres en amplitude et/ou en phase avant
dtre sommes entre elles. Un dispositif dalimentation permet de commander les amplitudes
et/ou les phases relatives de ces sources.
Grce cette commande des sources en amplitude et/ou en phase, les antennes rseaux
peuvent produire des diagrammes de rayonnement ayant une forme voulue dans les directions
dsires. Il sera notamment possible de les conformer localement, par exemple par la cration
de plusieurs lobes simultanment ou par la cration dun lobe dans la direction du signal
incident et dun zro dans la direction dune interfrence (antennes adaptatives) ou
globalement en modelant leur enveloppe (antennes faisceaux conforms ou en anglais
Switched Beam Antennas SBA). La dtermination de ces coefficients (amplitude et/ou phase)
ncessite l'utilisation d'un outil numrique de contrle et de traitement.
Les signaux incidents sur le rseau sont de natures diverses. Nous distinguerons trois
types de sources :
la source utile S0 (t) que lon souhaite isoler ;
les interfrents Si (t), i = 1 .k, qui peuvent tre directifs et possder une signature
spatiale ou tre diffus. Les interfrents dans notre tude seront les autres utilisateurs du
rseau et/ou les trajets multiples de la source dintrt ;
le bruit additif (thermique et environnant) n (t), qui ne prsente pas de directions
dincidence particulire (il ne sera pas utilis dans nos dveloppements).
Les antennes rseaux peuvent avoir diffrentes gomtries savoir : linaire, planaire et
circulaire (Figure 5). Le champ total rayonn par le rseau est dtermin par laddition des
vecteurs champs rayonns par les diffrents lments. Si on veut rendre un modle trs
(6)
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
9
(a) (b)
(c)
( ) ( )
=
+ =
N
n
n n n
ja I AF
1
cos sin 2 exp
( )
N
n
et a
n n n
2
cos sin 2
0 0
= =
( ) ( ) ( )
=
=
N
m
theta m d j m w AF
1
sin ) 1 .( . . 2 exp
(9)
(10)
directif, il est essentiel que les champs interfrent de manire constructive dans les directions
exiges et interfrent nuisiblement dans lespace restant.
Figure 5 : Diffrentes configurations gomtriques des rseaux : linaire (a),
planaire (b) et circulaire (c).
Il y a plusieurs facteurs qui contribuent la formation du diagramme global de
rayonnement de lantenne rseau. Nous pouvons citer :
la configuration gomtrique rseau (linaire, circulaire, planaire) ;
lespacement entre les sources ;
lamplitude dexcitation pour chaque lment ;
la phase dexcitation pour chaque lment ;
le diagramme de rayonnement lmentaire ;
la polarisation de chaque lment.
Les diffrentes expressions des champs totaux utilises sont donnes par les expressions
suivantes en considrant que le champ lmentaire est lunit :
Rseau circulaire
arayon du rseau (
0
,
0
)couple des angles des lobes principaux
Rseau linaire
ddistance entre les lments
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
10
( ) ( ) ( ) ( )
= =
+ =
1 2
1 1
cos sin 1 cos sin 1 2 exp
N
m
N
n
y x
d n d m j k w AF
(11)
Rseau planaire
avec kentier qui sincrmente pour chaque sommation
. Ces expressions sont adaptes pour que ces antennes deviennent intelligentes.
3. Antennes intelligentes
Les systmes antennes adaptatives ou intelligentes (smart antennas) [I] entrent dans un
domaine technologique multidisciplinaire dont la croissance a t trs importante dans le
courant de ces dernires dcennies. Ils bnficient des interactions croissantes entre
llectromagntisme et le traitement du signal. Lintrt de ces systmes est leur capacit
ragir automatiquement, en temps rel, des modifications du canal de propagation. Ils
permettent de rduire les niveaux des lobes secondaires existant dans la direction de
linterfrence, tout en maintenant le lobe principal en direction utile. Habituellement, ces
systmes reposent sur des antennes rseau dlments et sur un processeur rcepteur
adaptatif en temps rel qui attribue des poids aux lments de lantenne rseau dlments
afin doptimiser le signal de sortie selon des algorithmes de contrle prdfinis. Une antenne
intelligente peut donc tre dfinie comme un rseau dlments capable de modifier son
diagramme de rayonnement, sa rponse frquentielle et dautres paramtres grce une
boucle retour de dcision interne pendant le fonctionnement de lantenne.
Dans les systmes dantennes traditionnels, chaque metteur envoie son signal de faon
trs large principalement cause du fait que la position du rcepteur est inconnue. Ce type de
transmission pollue lenvironnement lectromagntique en augmentant le niveau
dinterfrence global par une mission de puissance dans des directions inutiles. A contrario,
les systmes antennes intelligentes dterminent la localisation du mobile pour se focaliser et
mettre lnergie uniquement dans les directions souhaites.
i. Structure
La structure dune antenne intelligente [I] est donne par la figure 6 . Elle est constitue
d'un rseau de N antennes lmentaires, espaces dune distance d, dont les sorties sont
pondres par un terme complexe avant d'tre sommes entre elles. L'unit de contrle des
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
11
[ ]
= =
(t) x
...
(t) x
(t) x
,...,w ,w w (t)x(t) w y(t)
N
2
1
N 2 1
H
S n
n d
sin
) 1 ( 2
=
pondrations permet de mettre en forme un diagramme de rayonnement par ajustement
intelligent de l'amplitude et/ou de la phase avec laquelle se combinent les signaux reus/mis
sur les diffrents lments sachant que le signal incident a pour direction
S
.
Figure 6 : Schma reprsentatif d'une antenne adaptative
La sortie du rseau y(t) scrit :
O :
w
H
dnote le conjugu de la transpose complexe de pondration du vecteur de poids
x
i
(t) dsigne le signal reu par la i
me
antenne.
Si nous supposons que le premier lment dun rseau linaire est la rfrence de phase,
le dphasage relatif du signal reu au n
ime
lment est :
y(t)
(12)
(13)
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
12
) ( exp . ) (
n n
t j e t x + =
=
|
\
|
+ =
N
n
S n
n d
t j w e t y
1
sin
) 1 ( 2
exp . ) (
=
=
i
K
K
K
I
C
I
C
1
( )
=
= =
i i
K
k
k
K
k
k
q D
R
I
C
1 1
1
x
(25)
Figure 15 : Dfinition des spcifications sur le diagramme de rayonnement
partir dun gabarit.
Mathmatiquement, le problme consiste rsoudre un systme d'quations gnralement
non linaire:
est le vecteur des paramtres du rseau, F
c
est la fonction de rayonnement calcule
dans une direction
j
et, F
d
est la valeur dsire dans cette mme direction. La direction
angulaire est discrtise en M valeurs sur l'intervalle reprsentant une priode de la fonction
F
c
.
La rsolution du systme d'quations (25), (gnralement non linaire) doit s'effectuer
l'aide d'un algorithme itratif minimisant l'cart entre la fonction synthtise et celle dsire.
2. Critre de choix d'une mthode de synthse
i. Norme d'erreur
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
29
La minimisation de la fonction d'erreur dfinie doit s'effectuer en utilisant la norme
euclidienne. Cette norme reprsente la somme des carts au carr entre les fonctions
synthtise et dsire. La fonction synthtise oscille autour de la fonction dsire : on ne peut
donc pas matriser les carts importants qui peuvent apparatre dans certaines directions.
ii. Temps de calcul et prcision des rsultats obtenus
La prcision dpend du nombre d'itrations que l'on se fixe ainsi que de l'ordre
d'approximation que l'on effectue chaque itration. Le temps du calcul dpend du type de
convergence de la mthode (linaire, quadratique, ...), de la formulation de la fonction objectif
et des valeurs initiales choisies.
iii. Prise en compte des contraintes de ralisation pratiques
Lapproche est de sorienter vers :
les contraintes sur les paramtres de synthse, par exemple des contraintes sur la
dynamique du courant ou sur la position des lments.
la possibilit d'introduire des pertes dans la formulation du problme (pertes
dilectriques, mtalliques, rayonnements).
la possibilit de tenir compte de couplage entre les lments.
iv. Contraintes sur la fonction synthtise
Les contraintes portent sur :
lamplitude d'oscillations dans le lobe principal et niveau de lobe secondaire optimal.
la possibilit de crer des zros dans certaines directions privilgies.
la zone de transition minimale de part et d'autre de la zone couvrir (directivit
maximale).
v. Possibilit de synthtiser des diagrammes de rayonnement rel
ou complexe
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
30
Le diagramme dsir est gnralement dfini en module. Une formulation de la fonction
d'erreur entrane par le processus de minimisation un diagramme synthtis rel. Une autre
formulation du problme, o l'optimisation porte sur le module de la fonction calcule
(complexe), permet de ne spcifier que le module du diagramme dsir et d'obtenir des
diagrammes synthtiss complexes.
3. Elaboration du choix
Une recherche bibliographique sur les mthodes d'optimisations numriques appliques
la synthse des rseaux d'antennes a permis de constater qu'un nombre important de mthodes
ont t proposes. Ces mthodes sont illustres au tableau 1 [I].
Tableau 1 : Performances des diffrentes mthodes de synthse
i. Thorie de la mthode de synthse
Analytiques
(Fourrier,
Chebyshev ,..)
Optimisations
linaires
Polynomiales
(Elliot)
Projection
successive
Algorithmes
gntiques
Technique de
Madsen
(minmax)
Rseaux de
neurones
Paramtres de
synthse
Amplitude
Amplitude,
phase
Amplitude,
phase
Amplitude,
phase
Position
Amplitude,
phase, position
Amplitude
et/ou
phase
Critre derreur
(moindre carr
MC, minmax)
MC, autre
MC, minmax
Autre
MC
MC, autre
minmax
MC,
minmax
Synthse relle ou
en puissance
Non
Non
Oui
Oui
Oui
Oui
Oui
Prise en compte
du couplage
Non
Non
Oui
Non
Non
Oui
Oui
Contraintes sur
les paramtres de
synthse
Non
Non
Non
Oui
Non
Oui
Oui
Temps de calcul
Rapide
Rapide
Moyen
Lent
Rapide
Trs
rapide
Possibilit de
dveloppement
Non
Non
Non
Oui
Oui
Oui
Oui
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
31
( )
N
ERR
N
x x ERR
x
x
x ,..., ...
1
1
( ) ( ) ( ) [ ]
j d j C j j
E , x E ) , x ERR( =
( ) M j x ERR x ERR
M
j
j
,..., 1 , ) (
2 / 1
2
1
=
=
=
(26)
(27)
(28)
Tous les problmes d'optimisations peuvent se rduire la minimisation d'un scalaire
appel fonction objectif ou fonction d'erreur. Cette fonction est une reprsentation de la
diffrence qui existe entre les performances relles (synthtises) et dsires (imposes) de
l'application que l'on traite.
On note ERR(x) cette fonction d'erreur :
Le vecteur x reprsente l'ensemble des paramtres accessibles l'utilisateur et donc
modifiable pendant le processus d'optimisation.
Dans le cas de synthse des rseaux d'antennes rayonnements spcifis, les paramtres
de synthse peuvent tre le courant d'excitation (amplitude et/ou phase) et dans certains cas
les positions relatives des sources. L'optimisation n'est jamais conduite sans que l'on ait
satisfaire un certain nombre de conditions restrictives (contraintes) portant sur les paramtres
de rseau ou sur l'une de ses performances (directivit, rapport S/B, ...).
ii. Dfinition du critre derreur
Nous avons vu dans le paragraphe prcdent que le but de l'optimisation est de rduire le
plus possible la fonction objective ERR(x,). Dans la direction
j
cette fonction est dfinie
comme suit :
o E
c
est le champ calcul, E
d
est la valeur dsire dans la direction
j
, (
j
) est une
fonction poids qui permet de privilgier certaines directions de l'espace par rapport d'autres
en leur donnant une importance plus grande dans la fonction d'erreur.
Cette possibilit sera employe pour pouvoir contrler simultanment le niveau de lobes
secondaires et le niveau d'oscillations du lobe dans la zone couvrir. On effectue une mesure
d'erreur globale en prenant la norme de ERR(x,). La norme utilise est la norme euclidienne
(moindre carr) qui s'crit :
O M reprsente le nombre des directions angulaires chantillonnes.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
32
( )
( )
( )
=
d u
u
u D
r
v
r
4
1
i i i
b I a '
( )
i i i i i
I a b a I ' sin
2
+ =
(29)
(30)
(31)
La norme euclidienne reprsente une moyenne de l'erreur commise dans toutes les
directions angulaires. Cette norme peut engendrer de grandes oscillations (phnomne de
GIBBS) au voisinage de la zone de transition.
iii. Etude des contraintes
(a) Contrainte de directivit maximale
La directivit caractrise l'aptitude d'un arien concentrer l'nergie rayonne dans une
direction privilgie. Elle est dfinie comme suit :
( u ) est la densit de puissance rayonne par unit d'angle solide.
(b) Contraintes sur le courant d'excitation ou sur les positions des
lments :
Dans beaucoup de cas, il est ncessaire d'imposer des limitations sur certains paramtres
du rseau tels que des contraintes sur le module du courant ou sur l'espacement entre les
sources. L'ide suivie est de substituer aux variables d'optimisation une fonction incluant les
limitations. On obtient alors l'optimum en cherchant le minimum d'une suite de fonctions sans
contraintes.
Contraintes sur le module du courant :
En gnral, les contraintes sont de la forme :
Dans ce cas, le module du courant dans la fonction d'erreur peut tre substitu par la
fonction :
La variable de synthse est I'i (sans contrainte).
Contraintes sur les positions des lments :
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
33
D x x
i i
1
( )
=
+ =
i
j
j i
x D i x
1
2
' 1
=
= =
N
j
j ij i
i
i
i
a S b
a
b
1
,
( ) ( )
j i
x jk
i i
N
i
j
e b a e E
sin
1
0
. =
=
(32)
(33)
(34)
(35)
En gnral, ces contraintes sont lies la dimension physique de l'lment rayonnant ou
des effets indsirables fonctions de la distance entre lments (couplage par exemple). Ces
contraintes sont de la forme :
Pour en tenir compte, la variable x
i
sera remplace par la fonction :
La variable de synthse est alors x'
i
.
Possibilit de tenir compte du couplage :
Le coefficient de rflexion l'accs i peut s'crire :
a
i
tant londe de puissance incidente laccs i et b
i
tant londe rflchie laccs i.
Pour un rseau linaire N lments, le champ rayonn peut se mettre sous la forme
suivante :
avec e qui est le champ lmentaire .
C. Rseaux des neurones
1. Historique
Le dbut des premiers travaux associs cette tude s'est droul dans les annes 1940
lorsque McCULLOCH et PITTS font une description d'un systme simple dcrivant les
proprits du systme nerveux. Le premier modle de rseau est apparu au dbut des annes
50 mais c'est la fin de celles-ci que Frank ROSENBLATT (1958) prsenta le perceptron,
premier modle dmontrant un rel processus d'apprentissage. Suite la publication
Perceptrons de LATER, MINSKY et PAPERT en (1969) qui contient une tude critique des
perceptrons dmontrant par des exemples que les perceptrons ont l'impossibilit de
comprendre la fonction XOR, la recherche dans ce domaine tombe dans une clipse durant
deux dcades. Durant les annes 70, les rseaux de neurones semblent oublis jamais.
Malgr cette atmosphre ngative, certains chercheurs comme Anderson, GROSSBERG et
KOHONEN ont continu leurs recherches et sont arrivs de bons rsultats.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
34
C'est l'volution des systmes informatiques et leur disponibilit qui permettent plus
facilement la simulation des rseaux de neurones au dbut des annes 80. De plus, de
nouvelles dcouvertes dans ce domaine contribuent au retour de cette approche, comme par
exemple le modle de HOPFIELD (1982) ou les recherches du groupe RUMELHART, HINTON et
WILLIAMS (1986) qui sont arrivs dcouvrir lalgorithme de la rtro propagation et
dmontrer que ces rgles d'apprentissage donnent la possibilit aux rseaux de neurones
d'apprendre des fonctions tel le XOR, qui tait impossible pour le perceptron.
2. Neurone biologique
Les cellules nerveuses, appeles neurones vivants, sont les lments de base du systme
nerveux central. Le systme nerveux contient 1000 milliards, avec 1000 10000 synapses
(connexions) par neurone. Bien que les neurones ne soient pas tous identiques, leur forme et
certaines caractristiques permettent de les rpartir en quelques grandes classes. Il est aussi
important de noter que les neurones n'ont pas tous un comportement similaire en fonction de
leur position dans le cerveau. On peut dcomposer le neurone en trois rgions principales : le
corps cellulaire, l'axone et l'arborisation dendritique (Figure 16).
Figure 16 : Neurone biologique
La rponse du neurone biologique est en gnral non linaire, mais les
neurophysiologistes ont trouv que, pour quelques neurones biologiques, le signal de sortie
est proportionnel la combinaison linaire de tous les signaux dentres fournis par les autres
neurones du systme nerveux.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
35
3. Fonctionnement des neurones
Au point de vu fonctionnel, il faut considrer (pour simplifier) le neurone comme une
entit polarise, c'est--dire que l'information ne se transmet que dans un seul sens : des
dendrites vers l'axone. Pour rentrer un peu dans le dtail, le neurone va donc recevoir des
informations venant d'autres neurones, grce ses dendrites. Il va ensuite y avoir sommation
au niveau du corps cellulaire ; de toutes ces informations et via un potentiel d'action (un signal
lectrique) le rsultat de l'analyse va transiter le long de l'axone jusqu'aux terminaisons
synaptiques. A cet endroit, lors de l'arrive du signal, des vsicules synaptiques vont venir
fusionner avec la membrane cellulaire, ce qui va permettre la libration des
neurotransmetteurs (mdiateurs chimiques) dans la fente synaptique. Le signal lectrique ne
pouvant pas passer la synapse (dans le cas d'une synapse chimique), les neurotransmetteurs
permettent donc le passage des informations, d'un neurone un autre.
Au niveau post-synaptique, sur la membrane dendritique, se trouvent des rcepteurs pour
les neurotransmetteurs. Suivant le type de neurotransmetteur et le type des rcepteurs,
l'excitabilit du neurone suivant va augmenter ou diminuer, ce qui fera se propager ou non
l'information.
Les synapses possdent une sorte de mmoire qui leur permet d'ajuster leur
fonctionnement. En fonction de leur histoire, c'est--dire de leur activation rpte ou non
entre deux neurones, les connexions synaptiques vont donc se modifier.
4. Neurone formel
i. Modle mathmatique
Le modle de neurones formel prsent ici, d Mac CULLOCH et PITTS, est un modle
mathmatique trs simple, driv d'une analyse (elle aussi assez simple) de la ralit
biologique. Il est considr comme un automate, reli des automates voisins par des
connexions reprsentes par des poids rels, qui reoit son entre des signaux dlivrs par
les neurones auxquels il est connect et il fournit la sortie un signal qui dpend la fois de
ses signaux dentre et des poids de ses diffrentes connexions (somme pondr Ai) (Figure
17).
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
36
neurone i
Fonction de
transfert f
Ai
Sortie Si
Wi0
Wi1
Wij
Win
+1
e1
ej
en
Entres
= =
= + =
n
j
j ij i j
n
i
ij i
e w e w A
0 1
(36)
Figure 17 : Schma fonctionnel du neurone formel
Daprs la figure ci-dessus, nous pouvons dfinir un neurone formel par les paramtres
suivants:
un ensemble des connexions (ou synapses) dont chacune se caractrise par un poids
rel. Le signal e
j
se trouvant lentre de la synapse j qui est connecte au neurone i.
Ce signal est multipli par le poids de la synapse w
ij
. w
ij
est donc le poids de la
connexion dirige du neurone j vers le neurone i. Si le poids est positif on aura donc
un effet excitateur et, sil est ngatif, un effet est inhibiteur.
la somme pondre Ai des signaux dentre (e
j
)1jn du neurone i qui sont en mme
temps les signaux de sortie des neurones de la couche amont auquel ce neurone est
connect. La somme Ai est donne par lexpression suivante :
o w
i0
=
i
, e
0
= +1 et n est le nombre de neurones de la couche amont.
le seuil
i
propre au neurone i qui est un nombre rel et qui reprsente la limite partir
de laquelle le neurone sactivera. Ce seuil peut jouer le rle de poids de la connexion
qui existe entre lentre fixe +1 et le neurone i.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
37
la fonction de transfert f qui limite en gnral lamplitude de la sortie S
i
= f(A
i
) du
neurone entre [ -1 , 1 ]. Elle existe sous diffrentes formes, telles que : fonction non
linaire, fonction seuil binaire, fonction linaire seuil, ...
ii. Fonction de transfert
Jusqu prsent, nous navons pas spcifi la nature de la fonction dactivation de notre
modle. Il se trouve que plusieurs possibilits existent. Diffrentes fonctions de transfert
pouvant tre utilises comme fonction dactivation du neurone sont numres dans le
tableau 2 [II]. Les trois les plus utilises sont les fonctions seuil (en anglais hard limit),
linaire et sigmode. Ces fonctions sont reprsentes sur la figure suivante :
Figure 18 : Fonction de transfert : (a) du neurone seuil, (b) du neurone linaire
et (c) du neurone sigmode.
Nom de la fonction Relation dentre/sortie Nom sous Matlab
seuil
a=0 si n < 0
a=1 si n 0
hardlim
seuil symtrique
a=-1 si n<0
a=1 si n0
hardlims
linaire a=n purelin
linaire sature
a=0 si n<0
a=n si 0< n < 1
a=1 si n>1
satlin
linaire sature
symtrique
a=-1 si n<-1
a=n si -1< n < 1
a=1 si n>1
satlins
linaire positive
a=0 si n<0
a=n si n>0
poslin
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
38
sigmode n
e
a
+
=
1
1
logsig
tangente hyperbolique
n n
n n
e e
e e
a
=
tansig
comptitive a=1 si n maximum
a=0 sinon
complet
Tableau 2 : Fonctions de transfert a = f(n).
5. Rseaux de neurones artificiels
Un rseau de neurones artificiels est un ensemble de neurones formels associs en
couches (ou sous-groupes) et fonctionnant en parallle. Les rseaux de neurones artificiels ont
la capacit de stocker de la connaissance empirique et de la rendre disponible l'usage. Les
habilets de traitement (et donc la connaissance) du rseau vont tre stockes dans les poids
synaptiques, obtenus par des processus d'adaptation ou d'apprentissage. En ce sens, les
rseaux de neurones artificiels ressemblent donc au cerveau car, non seulement, la
connaissance est acquise travers un apprentissage mais de plus, cette connaissance est
stocke dans les connexions entre les entits, soit dans les poids synaptiques. La structure des
connexions entre les diffrents neurones dtermine la topologie du rseau. On peut classer les
rseaux de neurones artificiels dans trois grandes catgories :
le rseau neuronal multicouche de type Feed Forward (rseau non boucl) ;
le rseau rcurrent (rseau boucl) ;
le rseau cellulaire.
Notons quun rseau neuronal est dit boucl si son graphe reprsente au moins un cycle.
i. Rseaux neuronaux multicouches de type Feed - Forward
Appels aussi rseaux de type Perceptron, ce sont des rseaux dans lesquels
l'information se propage de couche en couche sans que le retour en arrire soit possible. On
trouve le perceptron monocouche et le perceptron multicouche.
Le premier est un rseau simple, puisquil ne se compose que d'une couche d'entre et
d'une couche de sortie. Sa principale limite est qu'il ne peut rsoudre que des problmes
linairement sparables.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
39
Entre
Couche Couche Couche de
sortie
Connexion Neurone
Sortie
Le perceptron multicouche MLP (Multi - Layer Perceptron) (figure 19) est une extension
du prcdent, avec une ou plusieurs couches caches entre l'entre et la sortie. Chaque
neurone dans une couche est connect tous les neurones de la couche prcdente et de la
couche suivante ( lexception des couches d'entre et de sortie) et il n'y a pas de connexions
entre les neurones d'une mme couche. Les fonctions d'activation utilises dans ce type de
rseaux sont principalement les fonctions seuil ou sigmodes. Il peut rsoudre des problmes
non linairement sparables et des problmes logiques plus compliqus, et notamment le
fameux problme du XOR.
Figure 19 : Structure de MLP
Ce rseau est considr comme un systme neuronal non linaire statique. Il existe trois
types de rseaux neuronaux multicouches de type Feed - forward qui sont : Le perceptron
multicouche MLP, le rseau RBFNN (Radial- Basis- Function Neural Network) et le rseau
dondelettes WNN (Wavelet Neural Network).
ii. Rseaux rcurrents
Appels aussi rseaux boucls ou dynamiques (figure 20), ce sont des rseaux dans
lesquels il y a retour en arrire de l'information. Des connexions apparaissent entre la sortie du
rseau et les neurones qui se trouvent dans des couches en amont. Ces rseaux sont souvent
utiliss pour identifier des systmes dynamiques non linaires.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
40
Entre
Couche dentre
Couche cache Couche de sortie
Sortie
Feed-back
Figure 20 : Structure dun rseau neuronal rcurrent
iii. Rseaux cellulaires
Dans un rseau cellulaire (figure 21), les neurones sont entirement connects dans un
plan o chaque neurone est reli tous les neurones qui les entourent. Une connexion entre
deux neurones peut tre bidirectionnelle.
Figure 21 : Rseau cellulaire
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
41
6. Diffrents types de rseaux neuronaux multicouches de types
Feed - forward
La construction de rseau neuronal multicouche de type Feed - forward pour
lidentification dune fonction non linaire plusieurs variables dpend de 4 points essentiels.
1. Le choix du type de neurones utiliser dans le rseau : le choix de la fonction
dactivation des neurones cachs.
2. Le choix de la topologie du rseau : le choix du nombre de couches et de neurones
cachs.
3. Linitialisation du rseau ou le choix du point de dpart du rseau avant de lancer
la phase dapprentissage. Il existe trois types de rseaux neuronaux multicouches
de type Feed - forward. Chacun tant bas sur une base de fonctions dactivation
diffrente et possdant une procdure dinitialisation adapte aux paramtres de la
fonction dactivation choisie. Nous pouvons donc citer :
a. le perceptron multicouche MLP (Multi Layer Perceptron) ou le rseau
ABFNN (Affine Basis Function Neural Network).
b. le rseau RBFNN (Radial-Basis-Function Neural Network or Localized
Receptive Field Network).
c. le rseau dondelettes WNN (Wavelet Neural Network).
4. Lapprentissage du rseau.
i. Perceptron multicouche MLP ou rseau ABFNN
Dfinit plus haut, nous pouvons encore reprsenter MLP comme il suit :
Figure 22 : Perceptron Multicouche
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
42
= =
+
|
|
\
|
+ =
1
1 1
0
h
j
S
p
k
j k jk c sj
x w f w Y
(37)
(38)
(39)
Avec CE : couche dentre p : nombre de neurones dentre
CC : couche cache q : nombre de neurones de sortie
CS : couche de sortie r : nombre de couches caches
hk : nombre de neurones dans la couche cache numro k
Lquation reprsentative non linaire de la o
me
sortie (1 o q) dun perceptron
multicouche constitu dune couche dentre, de plusieurs couches caches et dune couche
de sorite est donne par :
O :
f
s
est la fonction dactivation du neurone de sortie, elle peut tre linaire ou non.
f
c
est celle dun neurone appartenant une couche cache, toujours non linaire.
X = (x
1
, x
2
,, x
p
)
T
est le vecteur dentre du rseau.
N
est la base dapprentissage et W est lensemble des paramtres du rseau (poids w
jk
et
seuil
j
).
w
jk
est le poids de la connexion reliant le k
m me e
neurone dune couche amont avec le j
m me e
neurone de la couche aval et
j
est le seuil propre au neurone j.
Le nombre de paramtres dun MLP est :
h
1
p + h
2
h
1
+ h
3
h
2
++ h
r
h
r-1
+ qh
r
+ h
1
+ h
2
+ h
3
++h
r
+q
Si le rseau est constitu dune seule couche cache (r =1) et si la fonction fs est linaire,
alors lexpression prcdente devient :
Le nombre de paramtre de ce rseau est h
1
(p+q+1)+q .
Jusqu' prsent, le problme qui reste le plus difficile est de trouver les nombres
optimaux de couches caches et de neurones dans chaque couche, ainsi que le bon choix des
valeurs initiales des poids de connexions du rseau.
La nature de la fonction sigmode et le manque dinformations ncessaires sur le choix du
point de dpart du MLP nous obligent initialiser les diffrents paramtres du rseau par des
petites valeurs gnres alatoirement et distribues uniformment dans un intervalle bien
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
43
( ) ( ) T X T X T X et avec
e X f
T
T X
T
= >
=
2
2
,
0
) (
2
2
(40)
(41)
dfini. Cette initialisation empche dune part les neurones cachs davoir des poids
identiques pendant lapprentissage et dautre part la saturation du rseau ; car si les poids de
connexions du rseau initial taient trs levs, les diffrents neurones du rseau se
satureraient, aprs quelques itrations dapprentissage et le rseau subirait un blocage dans un
minimum local ou dans une rgion aplatie de la surface derreur trs proche du point de dpart
du rseau.
ii. Rseau RBFNN
Un rseau RBFNN est une alternative au MLP. Il est compos dune seule couche cache
non linaire et dune couche de sortie linaire. La fonction dactivation souvent utilise dans
la couche cache est la fonction Gaussienne :
O X = (x
1
,x
2
,...,x
n
)
T
R
n
est le vecteur dentre du neurone cach et T = (t
1
,t
2
,,t
n
)
T
R
n
est le vecteur qui se reprsente le centre de la fonction dactivation de ce neurone.
iii. Rseau dondelettes WNN
Un rseau WNN est compos dune seule couche cache dont la fonction dactivation
utilise dans cette couche est une ondelette radiale et dune couche de sortie linaire.
Londelette radiale souvent utilise est le chapeau mexicain :
n est le nombre dentres du rseau et X=d(X-T) avec d le paramtre de dilatation de
londelette et T le vecteur de translation de londelette.
7. Mthodes dApprentissage
Parmi les proprits dun rseau neuronal, sa capacit apprendre de son environnement
et damliorer sa performance sont les plus intressantes. Nous parlons de phnomne
dapprentissage. Cette amlioration prend place avec le temps o les paramtres du rseau
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
44
( ) { } 0 ,..., 2 , 1 / , > = = N et N i R R Y X
q p
i i N
{ } 0 ,..., 2 , 1 / > = = N et N i R X
p
i N
(42)
(43)
subissent des modifications suivant des rgles appeles rgles dapprentissage, jusqu ce que
la sortie dsire soit peu prs obtenue. Mais afin de pouvoir gnrer lapprentissage du
rseau, il est ncessaire de crer une base de donnes dans un domaine bien dfini appele la
base dapprentissage et qui contiendra toutes les informations mmoriser dans le rseau. On
distingue en gnral deux modes dapprentissage :
lapprentissage supervis;
lapprentissage non supervis.
i. Apprentissage supervis
Dans ce type dapprentissage, le rseau sadapte par comparaison entre le rsultat quil a
calcul, en fonction des entres fournies, et la rponse attendue en sortie. Le rsultat de cette
comparaison, cest--dire de cette diffrence, est le signal derreur. Ainsi les paramtres du
rseau vont se modifier dune manire itrative en fonction du signal derreur dj calcul
jusqu ce que les sorties dsires soient peu prs obtenues. Dans ce cas, la base
dapprentissage
N
est donne par :
X
i
est le i
me
exemple dentre du rseau et Y
i
est la sortie dsire du rseau correspondant
au vecteur dentre X
i
. N tant le nombre total dexemples dans la base dapprentissage.
ii. Apprentissage non supervis
Dans ce type dapprentissage, on na pas besoin dune base des sorties dsires. Le rseau
volue tout seul jusqu obtenir la sortie souhaite. Le mode la base dapprentissage scrit :
8. Algorithmes dapprentissage
Comme dans ce mmoire nous avons seulement utilis le rseau neuronal multicouche de
type Feed - forward, alors nous abordons dans cette partie uniquement les algorithmes
dapprentissage [I] qui peuvent tre utiliss pour ce type de modle neuronal. Nanmoins,
nous prsentons dans le tableau suivant diffrents algorithmes dapprentissage utiliss dans
MATLAB.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
45
Algorithme Acronyme Nom de la fonction
Batch Training with Weight and Bias
Learning Rules
B trainb
BFGS Quasi-Newton Backpropagation BFG trainbfg
Bayesian Regularization BR trainbr
Cyclical Order Incremental Training C trainc
Powell -Beale Conjugate Gradient
Backpropagation
CGB traincgb
Fletcher-Powell Conjugate gradient
backpropagation
CGF traincgf
Polak-Ribiere conjugate gradient
backpropagation
CGP traincgp
Gradient descent backpropagation GD traingd
Gradient descent with momentum
backpropagation
GDM traingdm
Gradient descent with adaptive lr
backpropagation
GDA traingda
Gradient descent w/momentum and
adaptive lr backpropagation
GDX traingdx
Levenberg-Marquardt backpropagation LM trainlm
One step secant backpropagation OSS trainoss
Random order incremental training
w/learning
R trainr
Resilient backpropagation (Rprop) RP trainrp
Sequential order incremental training
w/learning
S trains
Scaled conjugate gradient
backpropagation
SCG
trainscg
Tableau 3 : Fonctions dentranement utilises dans MATLAB
Dans le dveloppement avec MATLAB, nous utiliserons la fonction traingdm puisque
correspondant lalgorithme que nous avons choisi.
Le momentum est le paramtre qui permet l'introduction de l'ancien poids dans le calcul
du nouveau. Il empche l'algorithme de rester bloqu dans un minimum local et il augmente
encore la vitesse de convergence. Sa valeur est toujours infrieure 1 (valeur typique 0,9).
i. Algorithme de la rtro-propagation du gradient non amliore
GBP (Gradient BackPropagation)
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
46
=
=
=
|
|
\
|
+ =
=
k
i i
x o =
k
i i
y o =
( ) ( ) ( )
( ) ( )
0
1
1
i i i i i
j i
ij
k
ij ij ij
w et k k
o
w
E
k w k w k w
= + = +
=
= + =
( ) ( )
i i
k
i
k
i i
A f y s ' =
( ) ( )
k
i
k
i
k
i
k
i i
y y y s = 1
( )
=
l
l li i i i
w A f '
(44)
(45)
(46)
Soit un rseau neuronal multicouche de type Feed - forward form de p neurones en
entre, q neurones en sortie, r couches caches et h
n
neurones dans la couche cache numro
n. Les diffrentes tapes de lalgorithme sont les suivantes :
1. Initialiser tous les poids de connexions w
ij
et les seuils
ij
alatoirement par des petites
valeurs distribues uniformment dans un intervalle bien dfini. Lindice j reprsente un
neurone appartenant une couche amont et lindice i un neurone appartenant une
couche aval.
2. k = 1 (Numro de la couche cache)
3. Prsenter un vecteur dentre ( )
k
p
k k k
x x x X ,..., ,
2 1
= aux neurones de la couche d'entre et
un vecteur de sortie ( )
k
q
k k k
s s s S ,..., ,
2 1
= sur les neurones de la couche de sortie de
manire calculer l'erreur commise par le rseau.
4. Calculer les sorties de neurones de toutes les couches (couches caches et couche de
sortie) du rseau. La sortie d'un neurone i est donne par :
Si le neurone est dans la couche dentre :
Si le neurone est dans la couche de sortie :
Notons que la fonction de transfert f
i
est la fonction sigmode.
5. Modifier les poids de connexions w
ij
et les seuils
ij
:
O : - est le coefficient dapprentissage ou le gain dadaptation.
- i est lerreur locale (gradient).
si le neurone i est dans la couche de sortie.
Si fi est la fonction sigmode :
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
47
+ =
l
i li i
w A
( ) ( )
ij
k
ij ij
w
E
k w k w
= + 1
(47)
(48)
=
=
N
i
i
E MSE
1
2
1
(49)
(50)
si le neurone i est dans une couche cache. l reprsente les
neurones de la couche en aval auxquels le neurone i est connect.
O
i
est le seuil du neurone i et o
j
est la sortie du neurone j.
6. Calculer lerreur quadratique. ( )
=
=
q
i
k
i
k
i k
s y E
1
2
2
1
7. k = k+1, si k N revenir en (3). N tant le nombre dexemples dans la base
dapprentissage.
8. Calculer lerreur totale moyenne:
Si MSE arrter alors lapprentissage et sinon revenir en 2. jusqu la stabilisation du
rseau (avec >0 donn).
Les algorithmes de la rtro-propagation peuvent procder par lun des deux modes
prsents ci dessous :
(a) Gradient stochastique (Pattern Mode)
Dans ce mode, les paramtres du rseau sont modifis aprs la prsentation de chaque
exemple (X
i
,Y
i
) de la base dapprentissage. La convergence de cet algorithme est trs faible,
mais elle devient beaucoup plus rapide lorsquil y a des redondances dans la base
dapprentissage, car les paramtres du rseau sont mis jour bien plus souvent. Dans ce
mode, la rgle dapprentissage de GBP non amliore peut scrire :
O k est une itration (une itration est lunit dapprentissage o un seul exemple de la
base dapprentissage est prsent au rseau neuronal).
(b) Gradient total (Batch Mode)
Dans ce mode, les paramtres du rseau sont modifis aprs la prsentation de tous les
exemples (Xi, Yi), qui constitue une poque. Les gradients derreur, obtenus aprs la
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
48
( ) ( )
=
|
|
\
|
= +
N
l ij
k
ij ij
l
w
E
k w k w
1
1
( ) ( ) ( ) ( ) ( ) ( )
5 , 0 0 1 5 , 0
1 1
+ = + =
et
k w k w o k w k w k w
ij ij j i ij ij ij
(51)
(52)
prsentation de chaque exemple de la base dapprentissage, sont mmoriss progressivement
et leur somme totale sera utilise pour modifier les paramtres. Alors, cet algorithme a des
fortes chances de converger vers un minimum local, mais sa vitesse de convergence est faible.
La rgle dapprentissage de GBP non amliore peut scrire :
O k joue est une poque et N tant le nombre total dexemples dans la base dapprentissage.
ii. Rtro propagation du gradient avec momentum
Dans la GBP, le coefficient dapprentissage dtermine la vitesse de convergence de
lalgorithme. Avec un coefficient trop petit, le rseau de neurones apprend trs lentement et
avec un coefficient d'apprentissage trop grand, on a un apprentissage trs rapide mais au prix
de la cration doscillations dans lerreur totale moyenne qui empchent lalgorithme de
converger vers le minimum dsir. Le rseau devient instable. Dans la plupart des cas, si la
fonction derreur possde plusieurs minima locaux le rseau subira un blocage dans lun
deux ou dans une rgion o la surface derreur est aplatie. Pour cela, les chercheurs ont
introduit un terme, momentum , dans la rgle dapprentissage de GBP, la rgle devient :
iii. Algorithme de la rtro propagation du gradient
convergence acclre par ladaptation du coefficient
dapprentissage
Dans la partie prcdente, nous avons vu limportance du coefficient dapprentissage qui
dtermine la vitesse de convergence de lalgorithme dapprentissage GBP. La vitesse de
convergence peut tre amliore en associant chaque poids du rseau ( chaque connexion)
un coefficient dapprentissage diffrent et en modifiant ce coefficient pendant lapprentissage.
Cette technique sappelle la rtro propagation du gradient convergence acclre par
ladaptation du coefficient dapprentissage.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
49
( ) ( ) ( ) ( ) ( ) ( )( )
k k
T
k k
T
k k
W W W E W W W E W W W E W E + +
2
2
1
( ) [ ] ( )
k k k k k
W E W E W W =
+
1
2
1
(53)
(54)
iv. Algorithme du gradient conjugu CG
Cet algorithme joue le rle dun intermdiaire entre le GBP classique et la mthode de
Newton. Dans cet algorithme, chaque itration dapprentissage on modifie le coefficient
dapprentissage et le momentum. Cette mthode est trs intressante dune part parce quelle
ncessite le stockage de trs peu dinformation et dautre part par sa vitesse de convergence
trs suprieure celle des algorithmes de gradient classiques.
v. Mthode de Newton
Lide de la mthode de Newton consiste remplacer la fonction derreur E(W)
minimiser, au voisinage du point courant W
k
, par son approximation quadratique. Ce qui nous
conduit dvelopper cette fonction en srie de TAYLOR autour de W
k
:
vi. Mthodes quasi-newtoniennes
Le principe des mthodes quasi-newtoniennes consiste essentiellement en une
gnralisation de la formule itrative de Newton :
9. Choix dun rseau de neurones
Il existe un grand nombre de types de rseaux de neurones, avec pour chacun des
avantages et des inconvnients. Le choix dun rseau peut dpendre :
de la tche effectuer (classification, association, contrle de processus, sparation
aveugle de sources...) ;
de la nature des donnes (dans notre cas, des donnes prsentant des variations au cours
du temps) ;
dventuelles contraintes dutilisation temps rel (certains types de rseaux de
neurones, tels que la 'machine de Boltzmann' ncessitant des tirages alatoires et un
nombre de cycles de calculs indfini avant stabilisation du rsultat en sortie, prsentent
plus de contraintes que dautres rseaux pour une utilisation temps- rel).
Ce choix est aussi fonction de la matrise ou de la connaissance que lon a de certains
rseaux, ou encore du temps dont on dispose pour tester une architecture prtendue plus
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
50
performante. En labsence de relations qui nous aident crer un rseau optimal, nous avons
test les paramtres (nombre des couches caches, nombre de neurones dans chaque couche,
) convenables afin que notre rseau ait une performance acceptable.
Une raison de plus pour choisir les rseaux multicouches est son utilisation de la mthode
de la rtro propagation de gradient comme mthode dapprentissage. Notre rseau peut
alors, sans difficult, effectuer des fonctions de classification. Il est en effet intressant de
connatre priori les familles de fonctions auxquelles vont appartenir les surfaces de dcision.
Plusieurs rsultats montrent par exemple quun rseau de neurones artificiels multicouche
peut approximer avec une prcision arbitraire nimporte quelle transformation continue dun
espace dimension finie vers un autre espace dimension finie, sil possde suffisamment de
neurones formels cachs.
En ce sens, on dit quil est un approximateur universel. Certains rsultats montrent mme
qu lexception de cas extrmes, une seule couche cache est suffisante. Nous ne pouvons
pas concevoir thoriquement larchitecture dun rseau de neurones: il faut se baser sur la
mthode empirique classique. Pour cette raison, notre modle nest pas du tout unique, et nous
avons essay plusieurs modles (augmentation des neurones, des couches) dont la majorit
donne des rsultats acceptables. A noter que plus larchitecture du rseau augmente, cest--
dire plus le nombre de couches et de neurones augmente, plus le rseau contiendra de
connexions, ce qui implique un apprentissage et un traitement de plus en plus lent.
10. Base dapprentissage et mise en forme des donnes pour
notre rseau de neurones
L'apprentissage de rseau se fera par un modle d'apprentissage parallle. Afin de
pouvoir gnrer l'apprentissage du rseau, il est ncessaire de crer une base d'apprentissage.
Comme l'apprentissage est supervis, cette base doit contenir la fois l'entre du rseau et la
sortie souhaite. La sortie ici reprsente les poids affecter aux lments du rseau obtenus
grce la mthode analytique. Lorsque la phase d'apprentissage est termine, on procde de la
manire suivante :
1. Test du rseau.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
51
2. Si le test fournit de bons rsultats, alors le rseau sera prt calculer la sortie
correspondant une entre donne. Si non, il faut rgler les paramtres du systme, pour
augmenter les performances du rseau, et rpter la phase prcdente.
De manire gnrale, les bases de donnes doivent subir une phase de prtraitement
(Preprocessing) et une phase de post-traitement (Postprocessing) afin dtre adaptes aux
entres et aux sorties du rseau de neurones et de rendre la formation de rseau neurologique
plus efficace. Le prtraitement et le post-traitement configurent les interfaces de rseau pour
excuter les fonctions particulires.
Le prtraitement des donnes
Un prtraitement courant consiste liminer les discontinuits artificielles dans lespace
de fonction dentre et de ramener les entres de problme un ensemble dinformation
appropri. Ensuite il faut faire une normalisation approprie, qui tienne compte de lamplitude
des valeurs acceptes par le rseau.
Dans notre tude, le prtraitement des donnes est une tape importante car elle permet
de slectionner, dans lespace de reprsentation linformation ncessaire lapplication. Cette
slection passe par la sectorisation de lespace, ainsi que par llimination de la discontinuit
des sorties dsires en passant par la normalisation des donnes.
Prenons par exemple le cas dun rseau linaire, nous divisons l'espace en 17 secteurs,
rpt chaque 10 dans l'intervalle de -90 degrs +90 degrs. Des secteurs plus prcis de
division d'espace peuvent tre atteints en augmentant le nombre dlments de rseau. Le
vecteur d'entre au rseau de neurones est mis sous forme de code de 17 valeurs (une valeur
pour chaque secteur). Cette tape a l'avantage de diminuer considrablement la discontinuit
dans lespace et d'augmenter la rapidit de convergence.
Nous pouvons prsenter un exemple de discrtisation faite sur lespace considr.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
52
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
-85 -75 -65 -55 -45 -35 -25 -15 -5 5 15 25 35 45 55 65 75 85
0 0 +1 0 0 0 0 0 +1 0 0 +1 0 0 0 0 0
Si nous voulons 3 lobes principaux pour les angles -60, 0 et 30 nous considrerons les
secteurs 3,9 et 12 cest dire nous aurons comme valeurs dentre (aprs lapprentissage)
Fichier d'apprentissage
Le fichier d'apprentissage comprend deux catgories de paramtres: les paramtres
d'entre qui constituent les variables optimiser et les paramtres de sortie qui correspondent
aux rsultats dsirs. Dans chaque fichier, le nombre d'chantillons sur lequel l'apprentissage
doit s'effectuer est fourni ainsi que le nombre de neurones d'entre et de sortie. Ce nombre
d'chantillons dpend de la nature du problme traiter. Plus le rsultat est sensible aux
volutions des paramtres d'entre, plus la discrtisation des plages de variation est fine. Ainsi
il est prfrable de connatre le ou les paramtres optimiser responsables des plus
importantes variations sur le rsultat dsir. A noter, que l'augmentation des chantillons
d'apprentissage n'est pas toujours nfaste puisqu'il permet une meilleure connaissance du
problme, mais la phase d'apprentissage est plus coteuse en temps de calcul.
D. Logiciels
Les logiciels que nous avons eu utiliser pour mettre en uvre lapplication qui nous
permettra de faire notre tude sont renferms dans le tableau ci dessous :
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
53
Noms Brve description Gratuit
MATLAB 7.0
Permet de faire des calculs numriques
complexes particulirement utiles dans le
domaine de lingnierie ;
Contient une boite outils pour les rseaux de
neurones
Produit avec une licence
Tableau 4 : Logiciels utiliss
III. Rsultats et commentaires
A. Organigramme de fonctionnement
Comme nous lavons relev dans la problmatique, notre objectif est de raliser une
tude de caractrisation des antennes intelligentes laide des rseaux de neurones.
Larchitecture de lapplication qui nous permettra de parvenir nos fins sillustre comme
il suit :
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
MASTER RECHERCHE EN
Figure
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATION
ENSP 2009
Figure 23 : Organigramme de fonctionnement
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
TELECOMMUNICATIONS
54
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
55
B. Description
Notre tude se fera au travers dun outil qui est un GUI dvelopp sous MATLAB. Il
commence par une page de garde (figure 24) partir de laquelle nous pouvons accder
linterface principale.
Figure 24 : Page de garde
Linterface principale (figure 25) permet de pouvoir :
faire des simulations pour le type dantenne slectionn.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
56
Figure 25: Interface principale
vii. Interfaces proposes
Ici seffectue les simulations des antennes selon deux mthodes ainsi quune comparaison
entre ces dernires. Le type dantenne rseau est choisi au pralable (figure 26).
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
57
Figure 26 : Page pour la slection des types dantenne
(a) Mthode analytique
Avec la mthode analytique, nous dterminons les poids des lments du rseau et
traons le diagramme de rayonnement correspondant. C est qui nous sert de fonction de
rfrence pour le rseau de neurones. Elle servira donc aussi de validation des rsultats
obtenus.
(b) Mthode des rseaux de neurones
Avec cette mthode, nous appliquons une discrtisation de lespace et une normalisation
des donnes dentre (afin dviter les discontinuits) du rseau.
En nous basant sur la thse [I], plusieurs tests ont t effectus pour diffrentes
configurations de rseau. Nous avons test plusieurs configurations afin davoir une meilleure
convergence possible. Les rseaux obtenus, ne sont pas uniques.
Nous avons construit trois fichiers de donnes correspondant notre tude. Chaque
fichier contient des 0, des +1 et des -1. La prsence dun +1 indique un lobe principal dans le
secteur. 0 ne reprsente rien de particulier. -1 reprsente un interfrent liminer.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
58
Les valeurs des pondrations sont choisies d'une faon bien dtermine pour tenir compte
des diffrentes possibilits de formage des lobes. Les reprsentations suivantes matrialisent
les fichiers prcdents.
Rseau linaire
Obtention dun lobe principal
Nous avons choisi pour la phase dentranement du rseau le coefficient dapprentissage
0,06, le momentum 0,7, le seuil de tolrance 0,001 et le nombre ditration maximale 6000
et le type rseau de neurones est le perceptron multicouche. Lvolution de la fonction
derreur pendant la phase dapprentissage est donne par la courbe suivante.
Figure 27 : Evolution de la fonction derreur pendant la phase dapprentissage
Cette phase nous donne aussi la courbe suivante. Cette dernire permet aussi de juger si
lapprentissage a t concluant ou pas. Comme lillustre la figure prcdente, nous avons mis
en uvre lors de lapprentissage, le principe de validation croise. Il sagit de diviser
lensemble des chantillons dapprentissage en 3 sous ensembles : entrainement-validation
test. Il est donc possible de calculer l'erreur de gnralisation avec l'ensemble de test en plus
de lerreur dapprentissage donne par lensemble entrainement. La validation permet
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
59
darrter lalgorithme dapprentissage avant le sur-apprentissage (Apprentissage "par cur" :
le modle ne "connat" que les points utiliss pour l'apprentissage et fait n'importe quoi
ailleurs). Ce principe a t appliqu dans les 3 types de rseau dlments.
Figure 27 : Diagrammes obtenus aprs lapprentissage du rseau (mthode analytique et
mthode des rseaux de neurones) pour un lobe principal
En observant les deux courbes obtenues (en bleu et en rouge) sur la figure prcdente,
nous remarquons quelques diffrences de valeurs sur les lobes secondaires. Le lobe principal
est satisfaisant. Donc pour nous, le rseau a bien appris.
Obtention de deux lobes principaux
En utilisant les mmes paramtres que prcdemment, nous obtenons les courbes des deux
mthodes sur la figure suivante.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
60
Figure 28 : Diagrammes obtenus aprs lapprentissage du rseau (mthode analytique et
mthode des rseaux de neurones) pour deux lobes principaux
Ces rsultats sont on ne peut plus satisfaisant.
Nous pouvons galement visualiser les rseaux de type circulaire et planaire. La figure
ci-dessous prsente le cas dun rseau circulaire :
Figure 29 : Diagrammes obtenus aprs lapprentissage du rseau (mthode analytique et
mthode des rseaux de neurones) pour deux lobes principaux cas dun rseau circulaire : (a)
reprsentation en polaire (b) reprsentation en projet
(c) Comparaison entre les mthodes
(a) (b)
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
61
-80 -60 -40 -20 0 20 40 60 80
-40
-35
-30
-25
-20
-15
-10
-5
0
theta ()
A
F
(
d
B
)
- 40
Analytiquement
Thse
-80 -60 -40 -20 0 20 40 60 80
-40
-35
-30
-25
-20
-15
-10
-5
0
theta ()
A
F
(
d
B
)
- 05
Analytiquement
Thse
Nous pouvons remarquer tout dabord, daprs les figures prcdentes, que pour les deux
mthodes, nous avons des rsultats satisfaisants ; cest dire que les diagrammes de
rayonnement obtenus respectent, quelques erreurs prs, les consignes (angles des lobes
principaux et/ou des interfrences) imposes au dpart.
Nous remarquons ainsi une trs grande rapidit que nous offre la mthode des rseaux
de neurones par rapport la mthode analytique (pour un grand nombre de combinaison).
Daprs la dernire observation, nous pouvons affirmer quil est plus judicieux dutiliser
les rseaux de neurones pour la modlisation des antennes intelligentes utilises en
radiocommunication car ils permettent de simuler le comportement adaptatif de ces antennes
quasiment en temps rel.
C. Validation des rsultats
1. La mthode analytique
Cette validation a t faite par lIngnieur Mandeng dans son travail. Elle Comparait ses
rsultats ceux obtenus dans la thse [I].
Plusieurs configurations on t testes parmi lesquelles :
i. un lobe principal
Figure 30 : Diagrammes de rayonnement dun lobe directif -40 et -5 [III]
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
62
-80 -60 -40 -20 0 20 40 60 80
-40
-35
-30
-25
-20
-15
-10
-5
0
theta ()
A
F
(
d
B
)
lobe principal -50et zro -10
Analytiquement
Thse
-80 -60 -40 -20 0 20 40 60 80
-40
-35
-30
-25
-20
-15
-10
-5
0
theta ()
A
F
(
d
B
)
lobe principal 10et zro 30
Analytiquement
Thse
-80 -60 -40 -20 0 20 40 60 80
-40
-35
-30
-25
-20
-15
-10
-5
0
theta ()
A
F
(
d
B
)
lobe principal -40et zro 50
Analytiquement
Thse
ii. un lobe principal et un zro
Figure 31 : Diagrammes de rayonnement dun lobe directif et dun zro[III]
iii. Deux et trois lobes principaux
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
63
Figure 32 : Diagrammes de rayonnement de deux et trois lobes directifs[III]
2. La mthode des rseaux de neurones
La mthode des rseaux de neurones a t valide dabord par rapport la mthode
analytique, ensuite par rapport une antenne relle ralise dans la thse [I].
2.1 Validation par rapport la mthode analytique
- 80 -60 -40 -20 0 20 40 60 80
-40
-35
-30
-25
-20
-15
-10
- 5
0
theta ()
A
F
(
d
B
)
lobes pr inci paux :- 20 ; 40
Analytiquement
Thse
-80 -60 -40 -20 0 20 40 60 80
-40
-35
-30
-25
-20
-15
-10
-5
0
theta ()
A
F
(
d
B
)
lobes princi paux :- 60 ; 50
Analytiquement
Thse
- 80 -60 -40 -20 0 20 40 60 80
-40
-35
-30
-25
-20
-15
-10
- 5
0
theta ()
A
F
(
d
B
)
lobes principaux :- 60; 10; 50
Analytiquement
Thse
- 80 -60 - 40 -20 0 20 40 60 80
-40
-35
-30
-25
-20
-15
-10
- 5
0
theta ()
A
F
(
d
B
)
lobes principaux :- 30; 2; 22
Analytiquement
Thse
(-20 ; 40) (-60 ; 50)
(-60 ; 10 ; 50) (-30 ; 2 ; 22)
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
64
Plusieurs configurations on t testes parmi lesquelles un (30), deux (-30 ; 30) et trois
(-50 ; -20 ; 40) lobes principaux, un (-20) lobe principal et un (10) zro pour le rseau
linaire ; un (=50, =100) lobe principal pour le rseau circulaire. Elles sont illustres sur
la figure suivante :
Figure 33 : Diagrammes de rayonnement de pour le rseau linaire (a) un lobe, (b) deux
lobes, (c) trois lobes principaux, (d) un lobe et un zro et pour le rseau circulaire (e) un
lobe
(a) (b)
(c) (d)
(e)
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
65
2.2 Validation par rapport lantenne linaire ralise dans la thse [I]
Ici, il est question de comparer nos rsultats ceux obtenus dans la thse [I], lors de la
ralisation dune antenne linaire 8 lments espacs de h=0.5145. Dans cette thse, nous
retrouvons juste des images donnant les courbes avec repres des diffrentes mesures
effectues. Nous avons ralis un script MATLAB pour le traitement de ces images afin
dobtenir les donnes de ces mesures. Ce script ouvre une image quon aura prise au pralable
de la thse [I], puis produit deux images contenant chacune des courbes prsentes dans la
premire image, puis nous effectuons une binairisation des deux images obtenues ; partir
des images binaires, nous rcuprons les points des donnes et nous les transformons dans le
repre initial des courbes. La figure suivante prsente les diffrentes figures obtenues
chaque tape :
Figure 34 : Obtention des donnes de validation partir des images dans la thse [I]
Ds lors que nous avons obtenus ces donnes, la validation peut tre effectue. Plusieurs
configurations ont t testes ; 2 lobes principaux (-30 et 30 ; -50 et -20), 3 lobes
principaux (-30,-10 et 30), 1 lobe et 1 zro (-10 et 10 ;-20 et 30). La figure ci-dessous
prsente ces rsultats :
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
66
Figure 35 : Validation pour le rseau linaire (a) deux lobes, (b) deux lobes, (c) trois lobes
principaux, (d) un lobe et un zro (e) un lobe et un zro
(a)
(b)
(c)
(d)
(e)
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
67
Nos rsultats sont donc en concordance avec les mesures effectues sur une antenne rseau,
ralise dans la thse [I].
3.3 tude comparative des diffrents types de rseau de neurones
De ltude faite, nous avons constat que le rseau RBF tait le plus appropri pour
lapproximation du facteur de rseau. Les rsultats quil fournit sont plus proches de la courbe
analytique par rapport aux rsultats des autres types de rseaux. Ceci est d au fait que le
facteur de rseau est constitu principalement de lobes et ces derniers sont similaires des
gaussiennes dune part et dautre part grce aux fonctions de transfert du rseau RBF qui
sont des gaussiennes. La figure ci-dessous prsente les rsultats obtenus pour la simulation
dun lobe (10) partir des 3 types de rseau de neurones :
Figure 36 : Etude comparative des diffrents types de rseaux de neurones (a)MLP (b) RBF
(c) WNN
(a) (b)
(c)
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
68
Conclusion - Perspectives
Il ressort que lun des problmes majeurs dans les systmes de radiocommunication actuels
est la croissance sans cesse du nombre dutilisateurs. Il est question pour nous dinciter les
oprateurs de tlphonie mobile migrer des antennes classiques vers les antennes
intelligentes ; migration couple de lutilisation des rseaux de neurones. Nous avons donc
dvelopp une autre approche base sur les rseaux de neurones Artificiels. Cette technique
est caractrise par son efficacit et sa performance au niveau de la vitesse de convergence.
Le logiciel mis au point a permis de tester et de comparer les mthodes analytique et
neuronale. Le temps de calcul de la mthode analytique est de l'ordre de quelques secondes,
ce qui la rend inadapte pour des applications qui ncessitent une rponse trs rapide comme
le secteur des tlcommunications o la plupart des applications sont en temps rel .La base
d'apprentissage a t labore partir de la mthode de synthse analytique. Les simulations
ont t effectues sur plusieurs configurations des lobes afin de prouver l'efficacit de notre
approche. Les rsultats obtenus montrent une bonne concordance entre la mthode analytique
et la mthode des rseaux de neurones .Enfin une validation pratique de nos outils de synthse
fonctionnant seulement avec les pondrations des phases pour la formation des lobes et
l'annulation d'interfrents a t prsente et a montr l'efficacit et la performance des
mthodes dveloppes. Plusieurs perspectives sont offertes par ce travail :
la ralisation dune antenne intelligente proprement dite afin de comparer les
diagrammes mesurs et ceux calculs ;
Lutilisation des algorithmes dapprentissages rapides et optimiss.
La possibilit de ralisation d'un circuit neuronal ("neural chips"), intgrant les
fonctionnalits de calcul d'un rseau dantennes.
ANALYSE PAR RESEAU DE NEURONES EN VUE DE LA CARACTERISATION DES ANTENNES
INTELLIGENTES
MEFENZA N. MICHAEL
MASTER RECHERCHE EN GENIE DES TELECOMMUNICATIONS
ENSP 2009
69
Bibliographie
[I] Najib FADLALLAH, 2005, Contribution loptimisation de la synthse du lobe de
rayonnement pour une antenne intelligente. Application la conception de
rseaux dphasage, 208 p, universit de Limoges, thse de doctorat.
[II] Dr. Khelifa Hettak et Dr. Gilles Y. Delisle, 1999, Conception et ralisation
des antennes intelligentes , 6 p, Oxford University, rapport dactivit
[III] Mandeng Suzanne,2007, Modlisation par la mthode des rseaux de neurones
des antennes intelligentes utilises en radiocommunication ,84 p, ENSP ,
mmoire dingnieur.
[IV] S. Wang, 1989, Rseaux de neurones artificiels ,Universit de Gronoble, thse
de doctorat
[V] E. Davalo et P. Naim, 1990, Les rseaux de neurones , Eyrolles