Vous êtes sur la page 1sur 4

La première partie : Utilisation d’un modèle linéaire MLR.

Définition du MLR
La régression linéaire multiple est une méthode d’analyse de données quantitatives.
Son objectif est de mettre en évidence la relation pouvant exister entre l’entrée et la sortie
d’un neurone. Le modèle est représenté sous la forme matricielle suivante :

Y = X*B+e…………………………………………………………………………….(1)

De la forme matricielle, on constate que le neurone de base effectue une sommation des
entrées pondérées par des cœfficients appelés poids pour le l’élaboration du potentiel du
neurone, le vecteur X est constituée des entrées représentant l’observation au quelle on rajoute
une entées constante unitaire pour permettre l’introduction d’un biais ; une opération de type
Non linéaire Sigmoïde et enfin en calcule la sortie du neurone en fonction de ce potentiel.
Dans notre cas l’observation est constituée d’une matrice X (218x23).

L’erreur (NMSE) obtenu sur l’ensemble de test.

NMSE = 0.2392.

Le plot de y_test et estimé sur la même figure,

Interprétation des résultats obtenus :

Figure-1 : le de y-test et y-estimer


Interprétation des résultats :

Après une multitudes de simulation, on a pu remarque que la valeur l’erreur est


toujours égale a une valeur constante donnée par MNES =0.2392.
Le nombre des cœfficients du modèle représentes par les éléments du vecteur B sont fixe.
De la figure (1), en constate l’absence de minima locaux et une nette correspondance entre le
plot de l’ensemble y_test et plot de l’ensemble de y_estimer déterminé, par le produit scalaire
entre les éléments de la matrice d’entré X_learning et les éléments du vecteur B des
cœfficients du modèle.
Malgré plusieurs essais, on a pas pu de réaliser les bonne boucle pour une bonne
simulation qui nous permettra de voire comment les neurones du réseau modifient leurs liens
mutuels lors de l’apprentissage (Adaptation des différents poids).
Conclusion
Le réseau de neurone linéaire permet d’assure un apprentissage direct et de réaliser le
concept de minimisation de fonction.

La deuxième partie : Utilisation d’un modèle RBF.

Définition du RBF

Les réseaux de neurones a fonction de base radiale (Radial Basic Function) sont des réseaux
de neurones à une seule couche cachée et une couche de sortie, dont les fonctions
d’activation sont des fonctions à base radiale, le plus souvent des gaussiennes. La fonction
d’activation du neurone de la couche de sortie est l’identité. Les entrées sont directement
connectées aux neurones de la couche cachée.
Le réseau de neurones utiliser durant la réalisation de cette partie (non_lineaire) est définie
par l’équation suivante :

M
F(x)=   i  (x-Cj).
……………………………………………………[2]
J=1

 (x-Cj) = exp (-x-Cj2 / 2*j 2) . ………………………………………..[3]


Après la réalisation du code source, et une multitude simulation nous avons prélevé les
différentes courbes et les valeurs demandées, comme suit :
le nombre de neurone optimale pour cette application varie de 12 à 20 aléatoirement dont
pour quelques simulations, on a pu relever les courbes de l’ensembles (y_test, y_éstimé) et les
courbes d’évolution des erreurs a savoir ; l’erreur quadratique moyenne normalisée sur
l’ensemble de validation et L’erreur (NMSE) obtenue sur l’ensemble de test (NMSE_t). Pour
un nombre optimale égale a 12, 14, 16,18 et 20 on a prélever les courbes correspondante a
l’ensemble de y_estimé et celle correspondante a l’ensemble de y_test, NMSE et NMSE_t,
illustré par les figures
(Fig. : 2, 3,4.5, 6) suivantes :

Fig.2 : Pour le nombre optimale (N_op) =12

Fig.3 : Pour le nombre optimale (N_op) =14


Fig.4 : Pour le nombre optimale (N_op) =16

Fig.5 : Pour le nombre optimale (N_op) =18

III-2 : Interprétation des résultats obtenus


De ces quatre figures, en constate que le réseau neurones non linéaire (RBF) offre une
convergence vers la solution rapide. Dont pour les différents cas la minimisation de l’erreur
est obtenu auteur de nombre de neurones optimale. Chose du a la modification que des
paramètre de quelques neurones dont le domaine de réception qui contient la valeur du
vecteur d’entrée. La réponse de la fonction de base radiale ainsi positionnée diminue
rapidement en fonction de l’éloignement du vecteur d’entrée par rapport au centre de la
fonction RBF.
II-2 : Conclusion
En conclu que la programmation du modèle non linéaire est facile en le comparant a
celle du modèle linéaire.

Vous aimerez peut-être aussi