Académique Documents
Professionnel Documents
Culture Documents
vers le neurone j.
III. RESULTATS
un processus itératif sur les échantillons d’une base Fig .2. Phase d’apprentissage du réseau de
de données contenu dans le fichier d’apprentissage. neurones
Chaque itération permet de minimiser l’erreur
quadratique moyenne entre les sorties du RNA et les B.Phase d’utilisation
échantillons donnés. Une fois l’apprentissage terminé, nous avons
généré plusieurs niveaux maximaux de lobes
A.Phase d’apprentissage secondaires afin de valider le modèle obtenu par le
Après plusieurs essais, un réseau multicouches à réseau de neurones. On a constaté que le réseau a pu
été retenu avec la topologie suivante : reconnaître la plupart des exemples de tests avec un
- Un neurone dans la couche d’entrée taux de reconnaissance de 90%, le taux de
représentant le niveau maximum de lobes reconnaissance étant le rapport entre les exemples
secondaires désiré NLSlim. reconnus par le réseau et la totalité des exemples
- 20 neurones dans la couche cachée présentés au modèle construit par le RNA.
- 10 neurones dans la couche de sortie Les figures 3 et 4 présentent les résultats de
représentant la loi d’amplitude pour un synthèse de diagramme de rayonnement d’un réseau
réseau symétrique à 20 éléments symétrique à 20 éléments pour les entrées de test
rayonnants. respectives ( NLSlim= –33.1 dB et NLSlim=–17.2 dB).
Une fois que l’architecture du réseau a été décidée,
la phase d’apprentissage permet de calculer les poids
0
synaptiques menant à chaque neurone formel. Elle
-5
utilise l’algorithme de Quasi-Newton [6]. Cet
algorithme consiste à présenter au réseau des -10
sortie.
L’objectif essentiel ici, est de trouver le meilleur Fig.3. Diagramme d’un réseau symétrique à 20
apprentissage qui permet de donner un bon modèle. éléments avec NLSlim= -33.1dB
Pour cela, plusieurs essais sont nécessaires, en
0
-5
-10
-15
am plitude en dB
-20
-25
-30
-35
-40
-45
-50
-100 -80 -60 -40 -20 0 20 40 60 80 100
T
IV. CONCLUSION
REFERENCES BIBLIOGRAPHIQUES