Vous êtes sur la page 1sur 24

Chapitre 4.

Modélisation, Identification
et Commande par les Réseaux
de Neurones Artificiels

Ayachi ERRACHDI
errachdi.ayachi@issatkr.u-kairouan.tn

1
Plan

1. Généralité sur la Modélisation/Identification


2. Modélisation, Identification et Commande neuronales
3. Commande adaptative neuronale directe de systèmes non
linéaires
4. Commande adaptative neuronale indirecte de systèmes non
linéaires
5. Structure du contrôleur PID adaptatif neuronal auto-ajustable
système

2
1. Généralité sur la Modélisation/Identification

L’étude des systèmes réels des différentes disciplines


scientifiques (électronique, mécanique, thermique, chimie,
biologie, économie, physique,…), en vue de l’analyse, de la
prédiction, de la surveillance, de la commande, et / ou de
l’optimisation des systèmes. Généralement, la connaissance du
modèle du système réel (on réalise une modélisation) est
nécessaire.
1. Généralité sur la Modélisation/Identification

Identifier un processus (système), c’est chercher un modèle


(dynamique) mathématique, appartenant à une classe de
modèles connue, et qui, soumis à des signaux tests (en entrée),
donne une réponse (dynamique et statique en sortie), la plus
proche possible du système réel .

Pour élaborer un modèle, deux approches sont souvent


considérées :
- Modélisation boîte blanche, Elle se fonde sur les lois physiques,
chimiques, mécaniques, biochimiques.
-Modélisation boite noire. La modélisation s’attache à établir « à
partir de données expérimentales, une relation entre les variables
des entrées du processus et les variables de ses sorties et ne
nécessite pas a priori la connaissance des lois physiques.
1. Généralité sur la Modélisation/Identification

Les modèles dynamiques sont de deux sortes :


Modèles non paramétriques
(réponse fréquentielle, réponse à un échelon)
Modèles paramétriques
(fonction de transfert, équations différentielles)

Il existe deux principales classes de méthodes paramétriques :


-Les méthodes paramétriques graphiques ou déterministes
- Les méthodes paramétriques statistiques ou stochastiques
Plan

1. Généralité sur la Modélisation/Identification


2. Modélisation, Identification et Commande neuronales
3. Commande adaptative neuronale directe de systèmes non
linéaires
4. Commande adaptative neuronale indirecte de systèmes non
linéaires
5. Structure du contrôleur PID adaptatif neuronal auto-ajustable
système

6
2. Modélisation, Identification et Commande
neuronales

L’intelligence artificielle:
les techniques de
- La logique floue
linéarisation
- Les réseaux de neurones
les méthodes de
plan de phase

les fonctions
descriptives - Approximation universelle
- Apprentissage
- Généralisation
7
2. Modélisation, Identification et Commande
neuronales

Un réseau de neurone c’est…

• Une méthode de régression non-linéaire


• Un modèle « boîte-noire »
Le paramètres des réseaux:
Apprentissage = Calage
Nœud = variable intermédiaire
Poids = Paramètre
Couche d’entrée = Ensemble des variables
Couche cachée = Variables intermédiaires
Couche de sortie = Variable expliquée
Rétro-propagation = Une méthode de calage
Epoque = Itération de la méthode
Fonction d’activation = Fonction interne du réseau
Sigmoïde = tangente hyperbolique
Les grands types de réseaux : Feed-forward / Récurrents
Les modes d’apprentissage : Apprentissage supervisé / non-supervisé
2. Modélisation, Identification et Commande
neuronales

Modélisation par réseaux de


neurones
2. Modélisation, Identification et Commande
neuronales

Les étapes
1. Choisir ses variables d’entrée
– Pas trop nombreuses (10 grand maximum, plutôt 5)
– Vérifier leur pertinence par une analyse graphique
2. Normaliser les variables d’entrée et de
sortie pour qu’elles restent dans l’intervalle
[-1..1]
– De manière classique on retranche la moyenne puis on divise par n fois l’écart-type
– Parfois: Suppression de tendance
3. Choisir une architecture de réseau
– Une seule couche cachée
– Une seule sortie
– Un nombre de nœuds cachés le plus petit possible (faire un essai avec 3 voir 2, puis 4 si
cela ne donne rien…)
– Il faut être conscient du nombre de paramètres que l'on cale (il peut rapidement devenir plus
grand que l'échantillon de calage…☺)
4. Lancer le calage plusieurs fois en faisant varier aléatoirement le point départ (i.e. répétitions)
– Le nombre de répétitions nécessaire se situe généralement entre 5 (rapide) et 20 (plus sûr)
5. Retenir les paramètres issus de la meilleure répétition et valider le modèle obtenu sur des données indépendantes
– De bons résultats en calage ne présument pas de la qualité du modèle
2. Modélisation, Identification et Commande
neuronales

Sortie du modèle neuronal:


n2 n1
ym (k + 1) = f (∑ v j f (∑ wij x i ))
u (k ) y p (k +1) j =1 i =1
Processus
Mise à jour des poids synaptiques
de la couche cachée
T
w ij ym (k + 1)
D
L
v jk w(k +1) = wk
( ) +∆w(k)
-+
T
D n1
L
∆w(k ) = η f (∑ wij x i )S ' (Wx )vx T em (k )
'

i =1

Mécanisme em (k + 1) Mise à jour des poids synaptiques


d’apprentissage de la couche de sortie
v(k + 1) = v(k) + ∆v(k)

TDL: Tapped Delay Line n1


∆v(k ) = ηem (k )f (∑ wij x i )S (Wx )
'
0 ≤η ≤1 i =1

1
1
2. Modélisation, Identification et Commande
neuronales

Sortie du modèle neuronal:  1 


2

 x (k )− µi 
n2 wi1
ym (k +1)= ∑wi φi , φi = exp −
1

u(k)

 2(σi ) 
1 2 .
i =1 u(k−. 1) ym(k+1)
φi : Fonction d’activation gaussienne   . ..
.
u(k−nu )
Les règles de delta, minimisant la fonction ..
y(k) .
coût, conduisent aux changements ..
incrémentaux: J (k ) .
y(k−ny )
des poids synaptiques
  2
  2

 x (k ) − µi  x (k ) − µi
1 1
∂J (k ) 
n2
 
∆wi (k ) = −ηw
1
= ηw y p (k ) − ∑ wi exp  −
1
  exp  − 2(σ 1 )2 
∂wi1(k ) i =1  2(σ i1 )2   
    
i


des centres des gaussiennes:
  x (k ) − µ 1 2
  2

∂J (k ) 1 x (k ) − µ 
1 n
 x (k ) − µi1 
−  exp −
2

∆µi (k ) = −η µ 1 = η µ wi − ∑
1 i 1 i
y (k ) w exp  
∂µi (k ) (σ i )
1 2
 p
i =1
i
 2(σ i1 )2   2(σ i1 )2 
    
des dispersions:  2

1   x (k ) − µ 1 
2 2
∂ x (k ) − µ n x (k ) − µ 1
J (k ) y (k ) − ∑w exp  −  exp  − 
2

∆σ i (k ) = −ησ = ησ wi
1 1 i 1 i i

∂σ i (k )
1
(σ i )
1 3
 p
i =1
i
 2(σ i )
1 2   2(σ i1 )2 
    
 1 
2
2. Modélisation, Identification et Commande
neuronales

13
2. Modélisation, Identification et Commande
neuronales

Identification Hors ligne (offline)

14
2. Modélisation, Identification et Commande
neuronales

Identification en ligne (online)

15
2. Modélisation, Identification et Commande
neuronales

2-1-Commande non adaptative :


On utilise un contrôleur a paramètres statiques (pas d’ajustement)
2-2-Commande adaptative:
On utilise un contrôleur à paramètres dynamiques (l’ajustement des
paramètres est à chaque instant)

16
Plan

1. Généralité sur la Modélisation/Identification


2. Modélisation, Identification et Commande neuronales
3. Commande adaptative neuronale directe de systèmes non
linéaires
4. Commande adaptative neuronale indirecte de systèmes non
linéaires
5. Structure du contrôleur PID adaptatif neuronal auto-ajustable
système

17
Commande adaptative neuronale directe
de systèmes non linéaires

wij
Commande adaptative directe à modèle inverse f(h10) zjk
r(k)

Signal de y(k −1) u(k)


référence r(k) ..
Modèle u(k) Système y(k) . f(hj0)
y(k−ny )
Inverse non linéaire ..
u(k −1) .
..
.
u(k−nu )
f(hm0 )
Commande adaptative directe à modèle interne
v0ij
u(k) s(h11) v1jk
Modèle ym(k)
- .
Interne . ym(k)
+ . ..
em(k)
. s(hj1)
r(k) y(k) u(k−nu )
Modèle u(k) Système ..
Inverse non linéaire y(k −1) .
..
.
y(k−ny )
s(hm1 )
18
Plan

1. Généralité sur la Modélisation/Identification


2. Modélisation, Identification et Commande neuronales
3. Commande adaptative neuronale directe de systèmes non
linéaires
4. Commande adaptative neuronale indirecte de systèmes non
linéaires
5. Structure du contrôleur PID adaptatif neuronal auto-ajustable
système

19
Commande adaptative neuronale indirecte
de systèmes non linéaires

ec (k + 1)
-
+

r (k ) Contrôleur u(k ) Système y p (k + 1)


neuronal non linéaire discret

eˆc (k + 1)
em (k + 1) +
+
- -

Modèle
neuronal
ym (k + 1)
Paramètres estimés

Erreur d'identification : em (k ) = yp (k ) − ym (k )

Erreur de suivi estimée: eˆc (k ) = ym (k ) − r(k )

Erreur de suivi : ec (k ) = yp (k ) − r(k )


20
Plan

1. Généralité sur la Modélisation/Identification


2. Modélisation, Identification et Commande neuronales
3. Commande adaptative neuronale directe de systèmes non
linéaires
4. Commande adaptative neuronale indirecte de systèmes non
linéaires
5. Structure du contrôleur PID adaptatif neuronal auto-ajustable
système

21
r ec Contrôleur PID u Système y
-+
non linéaire
+
kP kI kD em -

Modèle neuronal ym
Superviseur
neuronal

u(k )=u(k −1)+kP (k ) ec (k )−ec (k −1) +kI (k )ec (k )+kD (k ) ec (k )−2ec (k −1)+ec (k −2)
=u(k −1)+kP (k )eP (k )+kI (k )eI (k )+kD (k )eD (k )

avec: eP (k )=ec (k )−ec (k −1)


eI (k )=ec (k )
e (k )=e (k )−2e (k −1)+e (k −2)
D c c c 22
Réseau de neurones du superviseur Vecteur de sortie du superviseur
neuronal
ws zs
kj
f(h1 )1
jl kP T
xs1 O(k ) = kP (k ) kI (k ) kD (k )
 
xsi kI m  p 
= λs f  ∑ zs f  ∑ ws x s (k ) 
..  j =1 jl k =1 kj k 
. f(hj1)   
kD m 1 
..
. = λs f  ∑ zs f (h j ) 
xsp  j =1 jl 

f(hm1 )

23
Fonction de
transfert
Nombre des Technique
nœuds d’apprentissage

Performance
Nombre des Pas
couches cachées des réseaux d’apprentissage
de neurones

N
N 1
1
( yref (k ) − yˆ(k )) MAE = ∑ yref (k ) − yˆ(k )
2
RMSE =
N ∑ N k =1
k =1

∑ ( )
1 N 2
yref (k ) − yˆ(k )
1
N
yref (k ) − yˆ(k ) N k =1
TIC =
MAPE =
N ∑ yref (k ) 1 N 1 N
24
N ∑ N ∑
k =1
yref (k )2 + yˆ(k )2
k =1 k =1

Vous aimerez peut-être aussi