Vous êtes sur la page 1sur 8

Méthodes d’identification numériques

Chapitre07
Cours Enseignant :
Méthodes d’identification numériques A.Loudjani

TABLE DES MATIERES

1- Introduction ……………………………………………………………………………………………………………………………………. 2

2- Méthodologie d’identification ……………………………………………………………………………………………………. 3


3- Identification par calculateur numérique……………………………………………………………………………….. 3

4- Identification paramétrique récursive (Algorithme d’adaptation paramétrique)…………… 4

5- Types d’estimation paramétrique………………………………………………………………………………………………… 4


5.1- Avantages de l’estimation paramétrique récursive…………………………………………………. 5

6- Algorithmes pour l’estimation paramétrique ………………………………………………………………………. 5

6.1- Algorithme des moindres carrées non récursif MC……………………………………………. 5


6.2- Algorithme des moindres carrées récursif MCR………………………………………………. 7

6.3- Algorithme du gradient………………………………………………………………………………………………….. 7

6.4- Algorithme de Gauss-Newton……………………………………………………………………………………….. 8

Bibliographie 8

1
Méthodes d’identification numériques

1- Introduction

L’identification consiste a déterminer les paramètres d’un

modèle mathématique, dont la structure est établie selon un critère donne.

Les paramètres des modèles sont obtenus par la minimisation de l’erreur de

prédiction entre le signal de sortie du système (mesuré) et le signal du modèle

(estimé) suivant un critère d’optimalité par exemple : (moindres carrés, erreur

quadratique moyenne, maximum de vraisemblance), nous nous intéressons plus

particulièrement à la méthode qui est basée sur le blanchissement de l’erreur

de prédiction . Formellement l’opération d’identification des paramètres du

modèle peut se résumer par la figure ci dessous [1].

Signal d’entrée
u(k) s(k)
Système
(procédé) +
Algorithme
e(k) Critère J(θ)
d’estimation
paramétrique
y(k) -
Modèle (θ)

Paramètres du
modèle

Figure 1 : Identification par erreur de sortie

Il est important de souligner qu’il n’y a pas un algorithme d’estimation

paramétrique unique pour tous les types de modèles de bruit fournit des

estimations paramétriques asymptotiquement non biaisées. Pour chaque

structure de bruit, il existe des algorithmes spécifiques permettant d’obtenir

des bons résultats.

2
Méthodes d’identification numériques

2- Méthodologie de l’identification
Comme nous avons vu précédemment que le processus de l’identification

est résume essentiellement selon le diagramme suivant :

Acquisition de données E/S

Prétraitement de données

Estimation de la complexité du
modèle (Choix du modèle)

Estimation paramétrique

Validation du modèle

Non Oui
Calcul régulateur

Figure 2 : Méthodologie de l’identification

3- Identification par calculateur numérique


On peut la résumé comme suit :

1) Acquisition entrée: Séquence binaire pseudo aléatoire de faible amplitude

2) Estimation de la complexité du modèle (algorithmes)

3) Estimation des paramètres du modèle (estimation récursive)

C.N.A s(k)
u(k)
+ Procédé C.A.N
+
B.O.Z Algorithme
e(k) Critère J(θ)
d’estimation
paramétrique
Modèle
y(k) -
échantillonné
ajustable

Paramètres du
modèle 3
Figure 1 : Identification par calculateur numérique
Méthodes d’identification numériques

4) Validation du modèle identifié (Tests statistiques sur e(k) et y(k))

4- Identification (estimation) paramétrique

récursive (Algorithme d’adaptation

paramétrique)

La forme générale de l’algorithme d’adaptation (estimation) peut être donnée par la

formule suivante :

Remarque : Vecteur des paramètres θ = contient l’ensemble des paramètres à

identifier

5- Types d’estimation paramétrique

a) Estimation paramétrique non récursive


 Traitement des entrées/sorties par paquets obtenus sur un horizon de

temps.

 Pas d’estimation des paramètres pendant l’acquisition ou la lecture du

fichier

b) Estimation paramétrique récursive


 Traitement d’une paire d’entrées/sorties à chaque pas d’échantillonnage.

(pendant l’acquisition (temps réel) ou lors de la lecture d’un fichier de

données).

 Estimation des paramètres a chaque pas d’échantillonnage

4
Méthodes d’identification numériques

5.1- Avantages de l’estimation paramétrique récursive


 Obtention d’une estimation du modèle à fur et à mesure que le procédé

évolue

 Compression importante des données

 Nécessite moins de puissance de calcul et de mémoire

 Mise en œuvre facile sur microprocesseurs

 Identification temps réel si nécessaire

 Possibilité de poursuite des paramètres variables dans le temps

6- Algorithmes pour l’estimation paramétrique

6-1 Algorithme des moindres carrés non récursif MC

(ordinaire)
La méthode des moindres carrés a été introduite par Karl Gauss en

1809. Elle a été à la base de toutes les méthodes d’identification et d’estimation

des paramètres, cette méthode est basée sur la minimisation d’une fonction

quadratique J définie comme [2] :

(1)

Où e(k) représente l’erreur de prédiction commise sur l’estimation.

La modélisation auto- régressive à moyenne ajustée d’ordre (n, m) noté ARMA (n,

m) est définie par l’équation aux différences suivante [3] :

(2)

5
Méthodes d’identification numériques

Avec a0=1 ; u (k) : Entrée du système ; y (k) : Sortie du système ; e (k) : Bruit
blanc.

A partir de l’équation (2) (3)

L’écriture matricielle de l’équation 3 est : (4)

Avec (5)

(6)

Disposons de N mesures (y(k), u(k)),

Alors k=1 :N

(Forme matricielle) (7)

Avec

On définit l’erreur de prédiction comme étant la différence entre la sortie

du système et la sortie du modèle :

e(k)=s(k)-y(k) (8)

Sachant que : (9)

La méthode des moindres carrés est basée sur la détermination des meilleurs

paramètres, c’est à dire ceux qui minimiseront un certain critère d’optimalité. Il

représente la somme des carrés des erreurs de prédictions, et qui est mentionné

au dessous [2] :

(10)

(Forme matricielle) (11)

6
Méthodes d’identification numériques

La minimisation du critère J(θ) consiste à trouver un optimum, c’est à dire de

calculer la dérivée :

(12)

θ (13)

θ (14)

Si Matrice carrée

Sinon

Algorithme MC

6-2 Algorithme des moindres carrés récursif MCR

Sans refaire tous les calculs, l’algorithme des moindres carrées récursif MCR

est le suivant :



Algorithme MCR

6-3 Algorithme du gradient

e(k+1)=s(k+1)-y(k+1)

7
Méthodes d’identification numériques

Critère à minimiser (objectif)

(15)

Avec

Matrice heissienne

: Valeurs propre de la matrice

J(θθ)

(Algorithme du gradient)

6-4 Algorithme de Gauss-Newton

Avec

(Algorithme de Gauss-Newton)

Bibliographie

[1] M. Boumendil, M. Kardi, « Eude et implémentation des algorithmes d’identification

paramétriques et application au signal de parole », mémoire d’ingénieur d’état, Blida,

Octobre2002

[2] M. Najim, « Modélisation et identification en traitement du signal ». Masson, 1988.

[3] R. Ben Abdnnour, P. Borne, M. Ksouri et F. M’sahli, « Identification et commande

numérique des procédés industriels », édition téchnip, avril 2001.

[4] D. Landau, « Identification des système », Hermes, Paris, 1998.

Vous aimerez peut-être aussi