Académique Documents
Professionnel Documents
Culture Documents
Modélisation, Identification
et Commande par les Réseaux
de Neurones Artificiels
Ayachi ERRACHDI
errachdi.ayachi@issatkr.u-kairouan.tn
1
Plan
2
1. Généralité sur la Modélisation/Identification
6
2. Modélisation, Identification et Commande
neuronales
L’intelligence artificielle:
les techniques de
- La logique floue
linéarisation
- Les réseaux de neurones
les méthodes de
plan de phase
les fonctions
descriptives - Approximation universelle
- Apprentissage
- Généralisation
7
2. Modélisation, Identification et Commande
neuronales
Les étapes
1. Choisir ses variables d’entrée
– Pas trop nombreuses (10 grand maximum, plutôt 5)
– Vérifier leur pertinence par une analyse graphique
2. Normaliser les variables d’entrée et de
sortie pour qu’elles restent dans l’intervalle
[-1..1]
– De manière classique on retranche la moyenne puis on divise par n fois l’écart-type
– Parfois: Suppression de tendance
3. Choisir une architecture de réseau
– Une seule couche cachée
– Une seule sortie
– Un nombre de nœuds cachés le plus petit possible (faire un essai avec 3 voir 2, puis 4 si
cela ne donne rien…)
– Il faut être conscient du nombre de paramètres que l'on cale (il peut rapidement devenir plus
grand que l'échantillon de calage…☺)
4. Lancer le calage plusieurs fois en faisant varier aléatoirement le point départ (i.e. répétitions)
– Le nombre de répétitions nécessaire se situe généralement entre 5 (rapide) et 20 (plus sûr)
5. Retenir les paramètres issus de la meilleure répétition et valider le modèle obtenu sur des données indépendantes
– De bons résultats en calage ne présument pas de la qualité du modèle
2. Modélisation, Identification et Commande
neuronales
i =1
1
1
2. Modélisation, Identification et Commande
neuronales
x (k )− µi
n2 wi1
ym (k +1)= ∑wi φi , φi = exp −
1
u(k)
2(σi )
1 2 .
i =1 u(k−. 1) ym(k+1)
φi : Fonction d’activation gaussienne . ..
.
u(k−nu )
Les règles de delta, minimisant la fonction ..
y(k) .
coût, conduisent aux changements ..
incrémentaux: J (k ) .
y(k−ny )
des poids synaptiques
2
2
x (k ) − µi x (k ) − µi
1 1
∂J (k )
n2
∆wi (k ) = −ηw
1
= ηw y p (k ) − ∑ wi exp −
1
exp − 2(σ 1 )2
∂wi1(k ) i =1 2(σ i1 )2
i
des centres des gaussiennes:
x (k ) − µ 1 2
2
∂J (k ) 1 x (k ) − µ
1 n
x (k ) − µi1
− exp −
2
∆µi (k ) = −η µ 1 = η µ wi − ∑
1 i 1 i
y (k ) w exp
∂µi (k ) (σ i )
1 2
p
i =1
i
2(σ i1 )2 2(σ i1 )2
des dispersions: 2
1 x (k ) − µ 1
2 2
∂ x (k ) − µ n x (k ) − µ 1
J (k ) y (k ) − ∑w exp − exp −
2
∆σ i (k ) = −ησ = ησ wi
1 1 i 1 i i
∂σ i (k )
1
(σ i )
1 3
p
i =1
i
2(σ i )
1 2 2(σ i1 )2
1
2
2. Modélisation, Identification et Commande
neuronales
13
2. Modélisation, Identification et Commande
neuronales
14
2. Modélisation, Identification et Commande
neuronales
15
2. Modélisation, Identification et Commande
neuronales
16
Plan
17
Commande adaptative neuronale directe
de systèmes non linéaires
wij
Commande adaptative directe à modèle inverse f(h10) zjk
r(k)
19
Commande adaptative neuronale indirecte
de systèmes non linéaires
ec (k + 1)
-
+
eˆc (k + 1)
em (k + 1) +
+
- -
Modèle
neuronal
ym (k + 1)
Paramètres estimés
Erreur d'identification : em (k ) = yp (k ) − ym (k )
21
r ec Contrôleur PID u Système y
-+
non linéaire
+
kP kI kD em -
Modèle neuronal ym
Superviseur
neuronal
u(k )=u(k −1)+kP (k ) ec (k )−ec (k −1) +kI (k )ec (k )+kD (k ) ec (k )−2ec (k −1)+ec (k −2)
=u(k −1)+kP (k )eP (k )+kI (k )eI (k )+kD (k )eD (k )
f(hm1 )
23
Fonction de
transfert
Nombre des Technique
nœuds d’apprentissage
Performance
Nombre des Pas
couches cachées des réseaux d’apprentissage
de neurones
N
N 1
1
( yref (k ) − yˆ(k )) MAE = ∑ yref (k ) − yˆ(k )
2
RMSE =
N ∑ N k =1
k =1
∑ ( )
1 N 2
yref (k ) − yˆ(k )
1
N
yref (k ) − yˆ(k ) N k =1
TIC =
MAPE =
N ∑ yref (k ) 1 N 1 N
24
N ∑ N ∑
k =1
yref (k )2 + yˆ(k )2
k =1 k =1