Vous êtes sur la page 1sur 12

International Journal of Engineering Research and Development e-ISSN: 2278-067X, p-ISSN: 2278-800X, www.ijerd.

com Volume 9, Issue 6 (December 2013), PP. 15-26

Etude des effets des algorithmes dapprentissage et des fonctions de transfert sur la performance des modles statistiques neuronaux : Application dans le domaine mtorologique
Hicham El Badaoui1, Abdelaziz Abdallaoui2, Samira Chabaa3
1,2

Universit Moulay Ismail, Facult des Sciences, Laboratoire de Chimie-Biologie Appliques lEnvironnement, Equipe Chimie Analytique et Environnement, B.P. 11201, Zitoune, Mekns. Maroc. 3 Universit Ibn Zohr, Ecole Nationale des Sciences Appliques, Dpartement Gnie industriel BP. 1136, Agadir. Maroc.

Rsum:- Ce travail prsente le dveloppement d'un modle de rseau de neurones artificiel (RNA) de type Perceptron Multicouche (PMC) pour la prdiction du taux dhumidit de la zone de Chefchaouen. Notre objectif cest traiter une srie chronologique des donnes mesures entre les annes 2008 et 2013 pour valuer la rponse du rseau. Cette srie est constitue dun certain nombre de paramtres mtorologiques t elles que le taux dhumidit, la temprature de lair, la temprature de rose, la pression atmosphrique, la visibilit, la nbulosit, la vitesse du vent et la prcipitation. Pour dterminer larchitecture du rseau utiliser, nous avons vari le nombre des couches caches, le nombre de neurones dans la couche cache, les fonctions de transfert et les couples de fonctions de transfert ainsi que les algorithmes dapprentissage . Plusieurs critres statistiques comme lerreur quadratique moyenne (MSE) et le coefficient de corrlation (R), ont t tudis pour lvaluation des modles dvelopps. Les meilleurs rsultats ont t obtenus avec un rseau darchitecture [7-5-1], les fonctions dactivations (Tansig-Purelin) et un algorithme dapprentissage de Leve nberg-Marquardt. Mots cls:- Rseau de neurones artificiel, Perceptron Multicouche, Prdiction, Algorithme dApprentissage, Humidit.

I.

INTRODUCTION

La mtorologie accumule des quantits normes de donnes. Ces donnes proviennent dobservations effectues au sol, en altitude, en mer et dans lespace. Elles sont htrognes et fortement bruites. Pour extraire des informations prcises de ces donnes, les mtorologues utilisent diffrents types de modles qui dpendent des domaines comme la physique ou la statistique. La physique a pour objet la reprsentation de la ralit laide de modles qualifis de boite blanche. Tandis que la statistique essaie de construire ces modles mathmatiques de type boite noire partir des donnes empiriques. Linformation extraite va dpendre de lensemble des modles physiques ou statistiques utiliss pour dcrire le problme et les diffrentes hypothses qui seront choisies au dpart. Dans le domaine mtorologique, les lois des paramtres climatiques sont non linaires et afin de modliser ce type de problmes, nous nous sommes intresss particulirement un modle typique de rseau neuronal connu sous le nom Perceptron Multicouche. Les rseaux de neurones artificiels sont extrmement appliqus pour rsoudre des phnomnes fortement complexes et non linaires. Dans la littrature, les rseaux de neurones artificiels ont prsent un grand succs dans lanalyse statistique, les traitements de donnes et la prvision des paramtres environnementaux, et diffrents travaux de recherches ont t proposs dans le cadre de la prdiction en utilisant les rseaux de neurones de type PMC. Abdelli S. et al., en 2012, [1] ont prsent la mthode des rseaux de neurones de type perceptron multicouche, pour prdire des polluants dair. Leur objectif est de prvoir les concentrations de NO 2- et de trouver ses relations avec les autres variables mtorologiques. Fock E. et al., en 2000, [2] ont trait un modle statistique neuronal pour la modlisation thermique des btiments. Cette dmarche base sur la prdiction de la temprature de surface intrieure dune paroi montre la faisabilit et la possible implmentation du rseau dans un code. Abdallaoui A. et al., 2013, [3] ont utilis aussi les rseaux de neurones multicouche pour la prdiction des concentrations des mtaux lourds dans les sdiments fluviaux marocains, partir dun certain nombre de paramtres physico-chimiques. Lhumidit relative est lun des paramtres mtorologiques importants vue son influence sur la sant de lhomme, les matires de construction, lagriculture et lenvironnement , etc. Ainsi nous avons jug utile de dvelopper des modles mathmatiques statistiques neuronaux pour la prdiction de lhumidit relative dans la zone de Chefchaouen partir dun certain nombre de paramtres mtorologiques.

15

Etude des effets des algorithmes dapprentissage et des fonctions de transfert II.
A.

MATRIEL ET MTHODES

Prsentation de la zone dtude Notre zone dtude est la province de Chefchaouen qui est localise dans une rgion importante caractrise par une grande diversit des sols et des formations gologiques. Elle se trouve dans la zone de transition entre le domaine des nappes de flyschs et le domaine interne.

Fig.1 : Situation gographique de la zone de Chefchaouen (Maroc). La Province de Chefchaouen, situe au Nord-Ouest du Maroc (Latitude: 351017 nord; Longitude: 5 16 11 Ouest; Altitude: 564 mtres) sur la chane rifaine, est limi te au Nord par la mditerrane sur une longueur de 120 Km, au Sud par les provinces de Taounate et Sidi Kacem, l'Est par la province d'Al Hoceima et l'Ouest par les provinces de Ttouan et Larache. Cest une province qui relve de la rgion administra tive de Tanger-Ttouan (Fig. 1). Base de donnes La base de donnes utilise dans le cadre de cette tude est constitue par les valeurs de huit variables mtorologiques relatives la zone de Chefchaouen: Sept variables indpendantes (explicatives) : Temprature de lair, temprature de rose, pression atmosphrique, visibilit, nbulosit, vitesse du vent et la prcipitation. Une variable dpendante ( prdire) : le taux dhumidit (lhumidit relative). Ces valeurs ont t releves toutes les quatre heures pendant 1856 jours entre les annes 2008 et 2013. Elles ont t converties en moyennes journalires pour toutes les variables, sauf la quantit de prcipitations qui a t transforme en une valeur cumulative de la journe [4].
B.

Mise en forme des donnes Les donnes dentre (variables indpendantes) sont des valeurs brutes non transformes qui ont des ordres de grandeurs trs diffrents selon les variables. Afin duniformiser les chelles de mesures, ces donnes sont converties en variables standardises. En effet, les valeurs Ii de chaque variable indpendante (i) ont t standardises par rapport sa moyenne et son cart-type suivant la relation :
C.

Ii = Ii : Valeur standardise relative la variable i ; Ii : Valeur brute relative la variable i ; i : Valeur moyenne relative la variable i ; i : cart-type relative la variable i.

Ii i i

Les valeurs correspondantes aux variables dpendantes ont t galement normalises dans lintervalle [-1,1] partir de la relation suivante [5]:

16

Etude des effets des algorithmes dapprentissage et des fonctions de transfert


2(Ii Min(Ii )) 1 (Max(Ii ) Min(Ii ))

Ii =

III.

RESEAUX DE NEURONES ARTIFICIELS (RNA)

Un rseau de neurones artificiels est un modle de calcul dont l'inspiration originelle tait un modle biologique, c'est--dire le modle du cerveau nerveux humain. Les rseaux de neurones artificiels sont

optimiss par des calculs dapprentissage de type statistique. Ils sont placs dune part, dans la famille des applications statistiques, permettant de gnrer de vastes espaces fonctionnels, souples et partiellement structurs, et dautre part dans la famille des mthodes de lintelligence artificielle , permettant de prendre des dcisions sappuyant davantage sur la perception que sur le raisonnement logique formel [6].
Modle mathmatique dun neurone formel Le modle mathmatique d'un neurone artificiel est illustr par la figure 2. Un neurone est essentiellement constitu d'un intgrateur qui effectue la somme pondre de ses entres. Le rsultat de cette somme ensuite transforme par une fonction de transfert f qui produit la sortie O n du neurone. Les n entres du neurone correspondent au vecteur not: I = I1 , I2, , I3 , , In et le vecteur de poids est reprsent par : W = (W1 , W2, ; W3 , , Wn ). A.

Fig.2 : Structure d'un neurone artificiel La sortie On de l'intgrateur est dfinie par l'quation suivante : O = WT I b Le rsultat de la somme pondre s'appelle le niveau d'activation du neurone. Le biais b s'appelle aussi le seuil d'activation du neurone [7]. B. Choix dun rseau de neurones Il existe un grand nombre de types de rseaux de neurones, dont chacun a des avantages et des inconvnients. Le rseau choisit dans notre tude est un rseau perceptron multicouche (PMC). Ce choix est fait pour la facilit et la rapidit de sa construction et encore par le fait que notre problme ne prsente quun nombre considr limit de variables dentres [8]. La figure 3 illustre le perceptron multicouche dans le cas dune seule couche dentre, une seule couche cache et une seule sortie.

Fig.3 : Exemple darchitecture dun PMC n variables dentre, n neurones dans la couche cache et une seule sortie Le perceptron multicouche est compos dun assemblage de neurones rpartis sur plusieurs couches. La premire couche correspondant au vecteur compos des donnes dentre et la dernire couche au vecteur de

17

Etude des effets des algorithmes dapprentissage et des fonctions de transfert


sortie compos des valeurs dsires entre les deux couches. Entre ces couches il existe un certain nombre de couches caches. La complexit du rseau est en fonction du nombre de ces couches caches et du nombre des neurones lmentaires composant chaque couche. C. Indicateurs statistiques Pour valuer les performances des diffrents modles dvelopps, nous avons utilis deux indicateurs statistiques : Le coefficient de corrlation R donn par la relation [9]: R=
i i (Oi i i (Oi

O)2 = Oi O 2

i i

Oi Oi Oi O 2

O)2 : Somme des carres explique par le modle ; Oi O 2 : Somme des carrs totale.

Lerreur quadratique moyenne MSE : elle reprsente la moyenne arithmtique des carrs des carts entre les prvisions et les observations [10]. 1 MSE = N
N

(Oi Oi )2
1

IV.

RESULTAT ET DISCUSSION

A. Rgression linaire multiple (RLM) La rgression linaire multiple est utilise pour prvoir les valeurs d'une variable dpendante (le taux dhumidit) partir de variables explicatives (paramtres mtorologiques). Lquation du modle est la suivante : H % = 71,187 1,995 Ta + 1,719 Tr + 1,915 Pa 0,564 Vis + 0,927 Nb + 0,023 Pr 0,04 V N=1856 Jours ; R= 0,865 ; MSE = 0,0260 Avec : Tr : Temprature rose ; Pa : Pression atmosphrique ; Vis : Visibilit ; Nb : Nbulosit ; Pr : Prcipitations ; V : Vitesse du vent ; Tair : Temprature de lair ; H : Humidit relative. Le coefficient de corrlation obtenu par le modle (RLM) est R=0,865 et lerreur quadratique moyenne est MSE = 0,026, ceci montre que lhumidit relative nest pas corrl linairement avec les autres paramtres mtorologiques. Avec ce modle, il est difficile d'imaginer que l'on puisse tablir un modle entirement dterministe qui fournirait une prdiction vraiment exacte. Pour dpasser ces difficults, nous avons dvelopp des modles mathmatiques de type boite noire savoir : les rseaux de neurones artificiels (RNA). B. Rseaux de neurones artificiels (RNA) Dans le cadre de ce travail, nous avons utilis les rseaux de neurones non rcurrents de type PMC. Le choix dexploiter un type de rseaux de neurones et carter un autre nest pas arbitraire, mais repose sur les fondements quexigent le problme en question, sachant que chaque type de rseaux, en termes dapprentissage, est conseill pour une application donne. Nous avons opt donc pour le perceptron multicouche puisquil rpond aux spcificits du problme de prdiction. Ce type de rseau apporte des rsultats trs significatifs et le taux de prcision de la prdiction tant meilleur. Les algorithmes dapprentissage prsents par la suite font partie de la bote outils du logiciel MATLAB des rseaux de neurones. Pour dterminer larchitecture du rseau utiliser, nous avons vari le nombre de couches caches, le nombre de neurones dans une couche

18

Etude des effets des algorithmes dapprentissage et des fonctions de transfert


cache, les fonctions de transfert, le nombre ditration, le pas dapprentissage et les algorithmes dapprentissage [11]. Dans le cadre de cette tude, nous a avons divis, alatoirement notre base de donnes en trois parties : 60% pour lapprentissage, 20% pour le test et 20% pour la validation. Le nombre de couches caches : Selon larchitecture choisie, tous les neurones ou une partie des neurones dans une couche sont connects avec tous ou une partie des neurones des couches adjacentes. Le nombre de couches caches et le nombre de neurones par couche dpend du modle spcifique, de la vitesse de convergence, des capacits de gnralisation, du processus physique et des donnes dapprentissage [12]. Dans tout notre travail, nous nous sommes contents dune seule couche cache, car nous avons remarqu que laugmentation du nombre de couches caches augmente la charge des calculs sans aucun gain de performance. Les algorithmes dapprentissage : Dans cette tude nous avons utilis quatre algorithmes dapprentissage, qui sont qualifis de haute performance : Resilient Back Propagation (RBP); Gradient Descent Back Propagation (GD) ; Gradient Conjugu Scalaire (GCS); Levenberg-Marquardt (LM). Pour chaque algorithme dapprentissage, nous avons chang le nombre de neurones dans la couche cache ainsi que les couples de fonctions de transfert. Les performances ont t values grce lerreur quadratique moyenne (MSE) et le coefficient de corrlation (R). Les tableaux I, II, III et IV reprsentent les meilleures performances trouves pour les diffrentes combinaisons de couples de transfert pour chacun des 4 algorithmes, les figures 4, 5, 6, 7 reprsentent la variation de lerreur quadratique moyenne (MSE) en fonction des couples de fonctions de transfert pour les 4 algorithmes. Daprs ces tableaux nous notons que: Avec le couple de fonctions de transfert (Logsig - Purelin) et une architecture [7-7-1] nous arrivons aux meilleurs performances pour lalgorithme (Resilient Back Propagation). Pour lalgorithme (Gradient Descent Back Propagation) , la meilleure performance est obtenue avec un rseau de neurones darchitecture [7-4-1], avec la fonction Purelin comme fonctions de transfert pour la couche cache et la fonction Logsig pour la couche de sortie. Nous avons obtenu les meilleurs rsultats pour lalgorithme ( Gradient Conjugu Scalaire) avec un rseau de neurones darchitecture [7-8-1] et qui a comme couple de fonctions dactivations (Logsig -Tansig). Larchitecture [7-5-1] avec une fonction Tansig pour la couche dentre et une fonction Purelin pour la couche de sortie, a donn les meilleures performances pour lalgorithme Leve nberg-Marquardt. Comme la combinaison (Purelin-Purelin) na pas abouti aux meilleures performances, cela signifie que la relation entre lhumidit relative et les autres paramtres mtorologiques est non linaire. Au niveau du nombre ditrations : Lalgorithme RBP est lalgorithme prsentant le plus grand nombre ditrations pour toutes les combinaisons de fonctions de transfert ; cet algorithme est rput trs performant dans la reconnaissance des formes que dans lapproximation des fonctions. Lalgorithme LM converge avec le minium du nombre ditrations pour toutes les combinaisons de fonctions de transfert ; cet algorithme est rput trs performant dans lapproximation des fonctions surtout quand le rseau contient moins d'une centaine de poids mettre jour, qui est le cas ici [13, 14]. Le nombre ditrations des diffrentes variantes de lalgorithme gradient conjugu scalaire est gnralement infrieur ou gal cent loppos de lalgorithme RBP. Cependant, tous ces algorithmes convergent gnralement avec un nombre ditrations plus grand que celui de lalgorithme LM. Ces algorithmes sont connus dans la littrature par leur convergence rapide sur des varits des problmes (approximation des fonctions, classification), surtout quand la taille du rseau est assez grande. Malgr ces diffrences, tous ces algorithmes sont de hautes performances, ils convergent rapidement, et aboutissent des faibles valeurs de lerreur quadratique moyenne MSE et de grandes valeurs du coefficient de corrlation R et cela dans un temps qui ne dpasse pas quelques secondes.

19

Etude des effets des algorithmes dapprentissage et des fonctions de transfert


Tableau I: Etude de lalgorithme Resilient Back Propagation : RBP Couche cache Tansig Tansig Tansig Logsig Logsig Logsig Purelin Purelin Purelin Couche de sortie Tansig Logsig Purelin Logsig Tansig Purelin Purelin Logsig Tansig Dsignations TT TL TP LL LT LP PP PL PT
[7-4-1]
29,6 29,5

R 0,951 0,911 0,910 0,911 0,910 0,970 0,937 0,919 0,928

MSE (10-5) 13,5 29,5 29,6 28,8 25,1 06,4 17,4 29,4 20,1

Architecture [7-4-1] [7-6-1] [7-4-1] [7-5-1] [7-6-1] [7-7-1] [7-8-1] [7-8-1] [7-6-1]

Nombre ditrations 140 160 150 120 70 100 120 90 50

RBP
[7-8-1]

[7-6-1]

29,4

-5

28,8 25,1 20,1

MSE ( 10

[7-5-1]

[7-6-1]

[7-6-1]
17,4 13,5

[7-8-1] [7-4-1]

06,4

[7-7-1]
TT TL TP LL LT LP PP PL PT

Couples de fonctions de transfert


Fig.4 : Variation du MSE en fonction des couples de transfert pour lalgorithme RBP. Tableau II : Etude de lalgorithme Gradient Descent Backpropagation GD Couche Couche MSE Nombre R Architecture Dsignations cache de sortie (10-5) ditrations TT Tansig Tansig 0,832 85,3 [7-5-1] 110 TL Tansig Logsig 0,793 68,6 [7-7-1] 80 TP Tansig Purelin 0,847 42,0 [7-6-1] 70 LL Logsig Logsig 0,675 80,5 [7-5-1] 40 LT Logsig Tansig 0,719 99,8 [7-7-1] 60 Logsig Purelin LP 0,800 69,4 [7-5-1] 50 PP Purelin Purelin 0,720 99,3 [7-5-1] 45 PL Purelin Logsig 0, 924 31,2 [7-4-1] 60 Purelin Tansig PT 0, 804 66,1 [7-6-1] 50

20

Etude des effets des algorithmes dapprentissage et des fonctions de transfert


[7-7-1]
99,8 99,3

GD
[7-5-1]

[7-5-1]
85,3 80,5 69,4 68,6 42,0

-5 MSE ( 10 )

[7-5-1]

[7-7-1]

[7-5-1]

[7-6-1]
31,2 06,1

[7-6-1]

[7-4-1]
TT TL TP LL LT LP PP PL PT

Couples de fonctions de transfert

Fig.5: Variation du MSE en fonction des couples de transfert pour lalgorithme GD Tableau III : Etude de lalgorithme Gradient conjugu scalaire (GCS) Couche MSE Nombre Dsignations R Architecture de sortie (10-5) ditrations Tansig Logsig Purelin Logsig Tansig Purelin Purelin Logsig Tansig TT TL TP LL LT LP PP PL PT 0,956 0,918 0,958 0,921 0,960 0,955 0,937 0,917 0,939 13,6 28,0 11,5 27,8 11,0 12,6 17,3 28,0 17,0 [7-5-1] [7-4-1] [7-6-1] [7-7-1] [7-8-1] [7-5-1] [7-4-1] [7-5-1] [7-6-1] 90 80 70 100 100 80 40 50 70

Couche cache Tansig Tansig Tansig Logsig Logsig Logsig Purelin Purelin Purelin

[7-4-1]
28,0

GCS
[7-7-1]

[7-5-1]

27,8

[7-4-1]
17,3

-5 MSE (10 )

17,0

[7-6-1]
13,6

[7-5-1]
12,6 11,5

[7-5-1] [7-6-1]

11,0

[7-8-1]
TT TL TP LL LT LP PP PL PT

Fig.6 : Variation du MSE en fonction des couples de transfert pour lalgorithme GCS

Couples de fonctions de transfert

21

Etude des effets des algorithmes dapprentissage et des fonctions de transfert


Tableau IV: Etude de lalgorithme Levenberg-Marquardt (LM) Couche cache Tansig Tansig Tansig Logsig Logsig Logsig Purelin Purelin Purelin Couche de sortie Tansig Logsig Purelin Logsig Tansig Purelin Purelin Logsig Tansig Dsignations TT TL TP LL LT LP PP PL PT R 0,960 0,922 0,970 0,927 0,965 0,963 0,930 0,918 0,939
LM
27,9

MSE (10-5) 8,50 27,0 1,50 25,80 7,50 7,80 17,20 27,90 17,00

Architecture [7-8-1] [7-9-1] [7-5-1] [7-10-1] [7-9-1] [7-11-1] [7-10-1] [7-4-1] [7-6-1]
[7-4-1]

Nombre ditrations 50 30 27 60 30 30 30 60 90

[7-9-1]
27,0

[7-10-1]
25,8 17,2

-5 MSE ( 10 )

[7-10-1]
17,0

[7-6-1]
08,5

[7-8-1]
07,8 07,5

[7-11-1] [7-9-1]

01,5

[7-5-1]
TT TL TP LL LT LP PP PL PT

Couples de fonctions de transfert

Fig.7 : Variation du MSE en fonction des couples de transfert pour lalgorithme LM Le tableau V donne les couples de fonctions de transfert selon leurs performances pour les diffrents algorithmes dapprentissage. Daprs ce tableau, on peut diviser les couples de fonctions de transfert en trois groupes :

Le premier groupe donne des rsultats plus performants que ceux relatifs aux autres couples de fonction de transfert. Le deuxime groupe donne des performances situes entre le premier groupe et le troisime, mais qui sont plus proches de celles de premier groupe. Le troisime groupe est constitu des couples avec des couples de fonctions qui prsentent de faibles performances que celles relatives aux autres couples de fonctions de transfert. Tableau V : Couples de fonctions de transfert selon leurs performances. Groupe 1 Meilleures performances RBP GD GCS LM TP, TL LT, TP TL, LL, PL TL, LL, PL Groupe 2 Moyennes performances LT, PP, PL, LL, PT TL, LL, LP, TP, TT LL, LP, PP, PT PT, LL, LP, PP, PT Groupe 3 Faibles performances TT, LP LP, PT LT, TP TP

22

Etude des effets des algorithmes dapprentissage et des fonctions de transfert


C. Choix du modle RNA Par la suite, nous allons comparer ces diffrents algorithmes afin de choisir le meilleur modle. Le tableau VI, reprsente les meilleures performances obtenues pour chaque algorithme. Parmi tous ces algorithmes, lalgorithme de LevenbergMarquardt est lalgorithme le plus performant au niveau des indicateurs statistiques (R et MSE), ainsi quau niveau de la rapidit de convergence, car il mlange les algorithmes de Gradient Descent et de Gauss-Newton. Pour des petites valeurs du pas, la mthode de LevenbergMarquardt sapproche de celle de Newton. Inversement, pour de grandes valeurs du pas. Ceci est en accord avec les rsultats de quelques travaux rcentes qui ont dmontr les capacits de lalgorithme dapprentissage de Levenberg Marquardt pour la prdiction en terme derreur de prdiction ainsi le temps dapprentissage dune part et dautre part cet algorithme dapprentissage est un standard pour loptimisation de lerreur quadratique due ses proprits de convergence rapide et sa test de robustesse [15, 16, 17]. De plus, aprs plusieurs tests, il est ais de conclure que cest celle qui allie le mieux, pour notre travail, rapidit et qualit. Son principe est bas sur une descente de gradient itrative de la famille quasiNewton. Elle sappuie sur les techniques des moindres carrs non-linaires et de lalgorithme de Gauss-Newton voisinage restreint, confrant une garantie rapide de la convergence vers la valeur minimal de lerreur quadratique moyenne. Le pas de taux dapprentissage est initialis avec une certaine valeur qui est modifie durant loptimisation. A chaque itration, la fonction de cout est calcule avec la valeur de prcdente, si la fonction de cout diminue, on effectue la modification des paramtres et on diminue , si la fonction de cout croit, nous cherchons se rapprocher du gradient et nous augmentons jusquau ce que la fonction de cout diminue. Dans le cadre de ce travail, lalgorithme LM a t initialis avec les valeurs des paramtres dapprentissage suivantes : = 1 ; Gradient = 0,1 ; Nombre maximale ditrations = 200 Lalgorithme LM a converg aprs 7 itrations dans un temps de 2s et ses paramtres sont devenus : = 0,001 Gradient = 0,0026 Tableau VI : Meilleures performances obtenues pour chaque algorithme dapprentissage. Algorithmes dapprentissage RBP GD GCS LM Couche cache Logsig Purelin Logsig Tansig Couche de sortie Purelin Tansig Tansig purelin Dsignations TT TP LP TP R 0,969 0,924 0,960 0,970 MSE (10-5) 06,4 31,2 11,0 1,5 Architecture [7-7-1] [7-6-1] [7-8-1] [7-5-1] Nombre ditrations 100 60 140 27

Nous pouvons conclure daprs tous ces rsultats, que le meilleur modle RNA est un rseau de neurones de type PMC qui utilise lalgorithme de Levenberg Marquardt comme algorithme dapprentissage, les fonctions (Tansig et Purelin) comme fonctions de transfert et qui a larchit ecture [7-5-1]. Ce rseau est constitu de trois couches: Une couche dentre : forme par 7 neurones reprsentant les variables explicatives: la temprature de lair, la temprature de rose, la pression atmosphrique, la visibilit, la nbulosit, la vitesse du vent et la pluie. Dans cette couche aucun calcul ne se fait. Une couche cache, ou se font tous les calculs doptimisation des paramtres des rseaux de neurones. Une couche de sortie du rseau qui reprsente lhumidit relative. La figure 8 reprsente larchitecture du modle des rseaux de neurones dvelopp :

23

Etude des effets des algorithmes dapprentissage et des fonctions de transfert

Fig.8: Architecture du rseau de neurones trois couches de configuration [7, 5,1].


100

Apprentissage R= 0,97

Humidit estime (%)

80

Test R= 0,97

60

40

20

20 100

40

60

80

100

20

40

60

80

100

Humidit estime (%)

80

Validation R= 0,97

Donnes totales R= 0,97

60

40

20

20

40

60

80

100

20

40

60

80

100

Humidit observe (%)

Humidit observe (%)

Fig.9: Relation entre les valeurs observes et celles estimes par le modle RNA pendant les diffrentes phases (Apprentissage, validation, test ainsi que pour lensemble de la base de donnes) Le coefficient de corrlation obtenu par ce modle est R= 0,97 et lerreur quadratique moyenne est MSE= 1,5.10-5 Le modle dvelopp a donn le mme coefficient de corrlation (0,97) durant les trois phases dapprentissage, de test et de validation (fig.9). Daprs ces rsultats numriques, nous pouvons conclure que les modles neuronaux ont des coefficients de corrlation presque gal lunit ( R ~ 1). Ceci montre quil y a un grand rapprochement entre les valeurs mesures et celles estimes par le modle neuronal dvelopp dans cette tude. Ce modle et peut donc tre considr comme un outil dune grande efficacit dans le cadre de la prvision mtorologiques. Nous citons a

24

Etude des effets des algorithmes dapprentissage et des fonctions de transfert


titre dexemples quelques travaux de recherche pertinents qui montrent lefficacit de ce modle dans la prvision mtorologiques : Bouaoune et al., 2010, [18] ont prsent lapplication dune mthode dinterpolation des rseaux neuronaux. Ils ont montr des relations non linaires entre les variables mtorologiques. Perez et al., 2001, [19] ont propos de prvoir la concentration de NO2- et de loxyde nitrique NO- Santiago en se basant sur les variables mtorologiques. Leurs rsultats ont montr que le rseau de neurones est la mthode qui ralise lerreur de prvision la moins leve par rapport aux autres mthodes classiques. Cheggaga et al. 2010, [20] ont montr la possibilit ainsi lefficacit de lutilisation des rseaux de neurones couches non-rcurrentes pour la prdiction de la vitesse de vent partir des donnes mtorologiques. Comparaison entre les deux modles Cette comparaison sera effectue au niveau des indicateurs statistiques R et MSE. Daprs le tableau VI, les meilleures estimations sont obtenues laide du modle RNA, car elle prsente les plus faibles des critres statistiques [21]. Le modle RNA garde les mmes performances pendant les trois phases dapprentissage, de validation et de test loppos du modle RLM qui montre une dgradation de performances en passant de la phase dapprentissage au deux autres phases. Les deux modle prsentent une performance similaire durant la pri ode dapprentissage avec un coefficient de corrlation R =0,97 pour le modle RNA et R=0,86 pour le modle RLM. Le modle RNA permet des amliorations jusqu 13% de lexplication de la variance pour la phase de validation et la phase de test par rapport au modle RLM.
D.

Tableau VII: Comparaison des performances de deux modles (RNA et RLM) au niveau des indicateurs statistiques. Phase Indicateur statistique RLM RNA Apprentissage R 0,86 0,97 MSE 0,150 0 0,001 5 Validation R 0,84 0,97 MSE 0,7700 0,0015 R 0,84 0,97 Test MSE 0,7700 0,0015

V.

CONCLUSIONS

Les rseaux de neurones artificiels sont des outils trs puissants au niveau de la prdiction. Ils peuvent traiter des problmes non linaires. Mais ils prsentent un inconvnient majeur du choix de larchitecture du rseau, car ce choix appartient souvent lutilisateur. Dans notre tude, nous avons dvelopp plusieurs modles bass sur des algorithmes dapprentissage qualifis de haute performance. Les rsultats obtenus dmontrent que lalgorithme de Levenberg-Marquardt prsent les meilleures performances aussi bien quau niveau des indicateurs statistiques quau niveau de la rapidit de convergence, ainsi quun rseau darchitecture [7-5-1] avec une fonction dactivation non linaire de type Tansig pour la couche cache et une fonction dactivation linaire de type Purelin dans la couche de sortie. Ce rseau neuronal labor a permis une trs bonne prdiction du taux dhumidit dans la rgion de Chefchaouen pendant les cinq annes de la priode dtude. Ltude comparative entre les deux modles RNA et RLM a montr que le modle dvelopp base des rseaux de neurones artificiels est plus performant que celui tabli par la mthode de rgression linaire multiple. Cela montre que la relation reliant lhumidit relative aux autres paramtres mtorologiques dans la zone de Chefchaouen est non linaire.

REFERENCES
[1]. S. Abdelli, K. Nouira, A. Trabelsi, Prvision du NO2 en utilisant la mthode du rseau de neurones , Business and Economic Statistics Modeling Laboratory Institut Suprieur de Gestion de Tunis, 129140p, 2012. E. Fock, P. Lauret, T. Mara et H. Boyer, Modlisation hybride pour la simulation thermique du btiment , Congrs franais de Thermique, SFT 2000, Lyon, 15-17 mai, 2000. A. Abdallaoui, Le phosphore et les mtaux lourds contenus dans les sdiments. Leur influence sur les phnomnes deutrophisation et de pollution, Editions Universitaires Europennes, 348 p. 2013.

[2]. [3].

25

Etude des effets des algorithmes dapprentissage et des fonctions de transfert


[4]. [5]. [6]. H. El Badaoui, A. Abdallaoui, I. Manssouri et H. Ousmana, The prediction of moisture through the use of neural networks MLP type , IOSR Journal of Computer Engineering Vol. 11, 66 -74p, 2013. H. Vassiliki Mantzari, H. Dimitrios Mantzaris, Solar radiation: Cloudiness forecasting using a soft computing approach, Journal Artificial Intelligence Research, Vol 2 n 1, p. 69 -80, 2013. M. A. Ammar, Mise en oeuvre de rseaux de neurones pour la modlisation de cintiques ractio nnelles en vue de la transposition batch/continu, Thse de doctorat de lI.N.P. Toulouse 194 p, 2007. S. Chabaa, Identification des systmes non linairement utilisant les techniques d'intelligence artif icielles et les bases de fonctions de la guerre pour la modlisation des donnes du trafic dans les rseaux internet, Thse de Doctorat, Univrsit Cadi Ayyad, Facult des Sciences Semlalia -Marrakech, 187 p, 2011. I. Manssouri, M. Manssouri, B. El Kihel, Fault Detection by K -NN algorithm and MLP neuronal networks in distillation column, Journal of information, Intel ligence and knowledge, Vol.3, pp.57-72 2011. M. Blanger, N. El-Jabi, D. Caissie, F. Ashkar, J. M. Ribi, Estimation de la temprature de leau en rivire en utilisant les rseaux de neurones et la rgression linaire multiple, Revue des sciences de leau, 18,3: 403-421, 2005. G. Mustafaraja, Prediction of room temperature and relative humidity by autoregressive linear and nonlinear neural network models for an open office, Energy and Buildings, p. 14521460, 2011. A. Zouidi, A. Chaari, M. Stambouli et Fnaiech F., Nonlinear continuous time modeling of a high pressure mercury vapor discharge lamp using feed forward back-propagation neural networks, IEEE 2004, Yasmine Hammamet, Tunisie, 2004. K. Dahmani, G. Notton, R. Dizne et C. Paoli, Etat de la rt sur les rseaux de neurones artificiels appliqus lestimation du rayonnement solaire, Revue des Energies Renouvelables, Vol. 15 N4 687 702, 2012. O. Kisi, E. Uncuoglu, Multi-layer perceptrons with Levenberg-Marquardt training algorithm for suspended sediment concentration prediction and estimation, Journal des Sciences Hydrologiques, 16p, 2004. O. Kisi, E. Uncuoglu, Comparison of three back -propagation training algorithms for two cases studies, Indian Journal of Engineering and Materials Scie nces, Vol.12, October, p.434-442, 2005. L. Hontoria, J. Aguilera, Riesco, J. Zufiria, Recurrent neural supervised models for generating solar radiation, Journal of Intelligent and Robotic Systems, Vol. 31, 201221p, 2001. A. Mellit, S.A. Kalogirou, L. Hontoria, S. Shaari, Artificial intelligence techniques for sizing phot ovoltaic systems, A review, Renewable and Sustainable Energy Reviews, Vol 13, 406 -419 p, 2009. C. Voyant, Prdiction de sries temporelles de rayonnement solaire global et de production dnergie photovoltaque partir de rseaux de neurones artificiels, Thse de doctorat, Universit de Corse Pascal Paoli, Ecole Doctorale Environnement et Socit / UMR CNRS 6134 (SPE), 257p, 2011. D. Bouaoune, M. Dahmani, Reconstitution de donnes climatiques pour lAlgrie du Nord : application des rseaux neuronaux, Comptes Rendus Goscience 342, 815822, 2010. P. Perez, A. Trier,Prediction of NO and NO2 concentrations near a street with heavy traffic in Santi ago , Atmospheric Environment,Vol 35, 1783-1789p, 2001. N. Cheggaga, F. Youcef Ettoumi, Estimation du potentiel olien, Revue des Energies Renouvelables, 99 105p, 2010. N. Sarani, J. Soltani, S. Sarani, A. Moasheri, Comparison of Artificial Neural Network and Multiv ariate Linear Regression Model to Predict Sodium adsorption ratio (SAR) (Case Study: Sistan River, Iran) , International Journal of Biological, Ecological and Environmental Sciences, Vol1, 130 -134p, 2012.

[7].

[8].

[9].

[10]. [11].

[12].

[13].

[14]. [15]. [16]. [17].

[18]. [19]. [20]. [21].

26

Vous aimerez peut-être aussi