Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Notes de cours :
Diagnostic des Systèmes
Réalisé par :
KHEBBACHE Hicham
Ce cours est destiné aux étudiants de Master 2 en “Automatique et Systèmes (AS)”, ainsi qu’aux
étudiants sollicités par des problèmes de diagnostic et détection de défauts des systèmes linéaires.
Il leur permettra de maitriser les concepts et les méthodes de diagnostic des systèmes afin de les
appliquer à des domaines aussi variés que l’électricité, la mécanique, la pétrochimie,... etc. Les pré-
requis constitués des connaissances mathématiques dispensées durant les deux premières années
d’un cursus universitaire dans la filière “Sciences et Techniques (ST)” ou dans le cadre des classes
préparatoires aux écoles supérieures, pourront être complétés par les notions basiques des systèmes
asservis (continus et échantillonnés), du traitement des signaux stochastiques et de la notion de la
robustesse en automatique.
Table des matières
1 Généralités et définitions 6
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Notions fondamentales sur le diagnostic de défauts . . . . . . . . . . . . . . . . . . . 6
1.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Modes de fonctionnement d’un système . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Classification des défauts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.1 Selon leur localisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.2 Classification selon la modélisation . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.3 Classification selon les caractéristiques temporelles . . . . . . . . . . . . . . . 9
1.5 Différentes étapes du diagnostic d’un système . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Critères de performances d’un système de diagnostic . . . . . . . . . . . . . . . . . . 11
– 3 –
6 Analyse des Résidus 52
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.2 Cas déterministe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.2.1 Fonction d’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.2.2 Fonction de seuil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.2.3 Retour à la normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.3 Cas stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.3.1 Test de Page-Hinkley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
Annexe A Série de TD N◦ 1 61
Annexe B Série de TD N◦ 2 64
Annexe C Série de TD N◦ 3 67
Annexe D Série de TD N◦ 4 69
Annexe E Série de TD N◦ 5 72
Références bibliographiques 74
Table des figures
Généralités et définitions
1.1 Introduction
Avant d’aller plus loin, il convient de définir ce qu’est un diagnostic, un défaut, une défaillance,
une panne, un état de fonctionnement normal,... etc., termes auxquels nous aurons souvent recours
dans les prochains chapitres.
1.2.1 Définitions
• Diagnostic : Le diagnostic est défini par l’ensemble d’actions visant à évaluer un procédé
(système) et identifier la cause probable des défauts (défaillances) à l’aide d’un raisonnement
logique fondé sur un ensemble d’informations provenant d’une inspection, d’un contrôle ou
d’un test de son fonctionnement. Un système est dit diagnosticable s’il est susceptible d’être
soumis à un diagnostic, il doit alors être muni d’organes d’observation (capteurs) et d’un
système d’analyse pour étudier les informations fournies.
– 6 –
Chapitre 1. Généralités et définitions Module. Diagnostic des systèmes
actionneur par exemple, ce dernier est encore utilisable, mais il peut avoir une réponse plus
lente ou devenir moins efficace. Par contre, lorsqu’une défaillance se produit, un actionneur
totalement différent est nécessaire pour pouvoir produire l’effet désiré.
• Panne : État d’un système incapable d’assurer le service spécifié à la suite d’une défaillance.
En effet, une panne résulte toujours d’une défaillance, et donc d’un défaut :
• Dégradation : Une perte de performances d’une des fonctions assurées par un équipement.
Un défaut est un événement soudain qui peut se produire dans n’importe quelle partie du
système. Selon l’endroit où il se produit, il peut être classé comme un défaut d’actionneur, un
défaut de capteur ou un défaut de composants (voir Figure 1.1).
• Défauts de capteurs : Ce type de défauts est la cause d’une mauvaise image de l’état phy-
sique du système. Un défaut capteur partiel produit un signal avec plus ou moins d’adéquation
avec la valeur vraie de la variable à mesurer. Un défaut capteur total produit une valeur qui
n’est pas en rapport avec la grandeur à mesurer.
D’un point de vue modélisation, les défauts peuvent être classés comme additifs ou multiplicatifs
comme le montre la Figure 1.2.
• Défauts additifs : Les défauts additifs sont considérés comme des signaux externes suppl-
émentaires, qui correspondent à des changements constatés indépendamment des entrées
connues (i.e. ce sont considérés comme des entrées inconnues). Ces défauts sont appropriés
pour représenter des défauts de composants dans le système à commander.
paramètres qui affectent l’évolution des entrées et/ou des sorties, où l’amplitude de ces défauts
dépend des entrées connues. Notant que les défauts d’actionneurs et de capteurs sont les plus
souvent multiplicatifs par nature.
Ainsi, en fonction de leurs caractéristiques temporelles, les défauts peuvent être aussi classés
comme graduels, abrupts ou intermittents (voir Figure 1.3).
• Défauts graduels : Ils représentent des changements paramétriques lents qui résultent sou-
vent en raison du vieillissement. Ils sont difficiles à détecter du fait de leurs caractéristiques
temporelles lentes, mais ils ne sont pas sévères. Cependant, si ces défauts ne sont pas pris en
charge rapidement, ils peuvent conduire à une situation grave.
Le diagnostic d’un système industriel nécessite un certain nombre d’étapes à savoir : l’acquisition
de données, l’élaboration d’indicateurs de défauts, la détection, la localisation et la prise de décisions
(voir Figure 1.4).
à partir des moyens de mesures appropriées. Cette étape implique donc à savoir quels sont
les signaux importants à collecter pour répondre au cahier des charges de surveillance, et de
l’utilisation de capteurs permettant de mesurer ces signaux.
• Étape de détection : C’est l’étape qui permettre de décider si le système est soumis à un
défaut ou non. Il est à noter qu’il ne suffit pas de tester la non nullité des résidus pour décider
de la présence d’un défaut, car, en pratique, les grandeurs mesurées sont toujours entachées
de bruits et le système à surveiller est toujours soumis à des perturbations, de sorte que les
résidus peuvent êtres non nuls en absence de défaut. Par conséquent, la détection de défauts
fait le plus souvent appel aux tests statistiques ou, tout simplement, est réalisée en vérifiant
• Étape de localisation : Cette étape permet, à partir des résidus détectés non nuls sta-
tistiquement, de localiser le défaut et donc de déterminer l’endroit du système où se trouve
l’anomalie (i.e. déterminer le ou les composants défaillants), d’évaluer son importance et de
chercher sa cause éventuelle. La procédure de localisation nécessite donc l’utilisation d’un
ensemble (ou vecteur) de résidus, qui doivent avoir des propriétés permettant de caractériser
de manière unique chaque défaut.
• Étape de prise de décision : C’est la dernière étape de la tâche de diagnostic. Elle permet
de décider de la marche à suivre, afin de conserver les performances du système surveillé.
Cette étape doit permettre, à partir des informations fournies par les étapes précédentes, de
générer les actions correctrices au système, de sorte qu’il retourne au fonctionnement normal
(après un changement dans la consigne et/ou la loi de commande), ou qu’il mis en mode
dégradé ou arrêté, afin de préserver son intégrité et/ou son environnement.
En résumé, quelle que soit la méthode employée, la procédure de diagnostic comprend deux
principales étapes, une étape de génération de résidus et une étape d’évaluation de résidus.
• La sensibilité : Décrire l’aptitude du système à détecter des défauts d’une certaine ampli-
tude. Elle dépend de la structure du système ainsi que du rapport de l’amplitude du bruit de
mesure avec celle du défaut.
2.1 Introduction
Les différentes méthodes de diagnostic ont pour principe de comparer le fonctionnement réel du
système à une référence, afin d’illustrer son fonctionnement normal ou son dysfonctionnement. Ces
méthodes se distinguent par rapport au type d’informations disponibles pour décrire le compor-
tement dynamique du système à surveiller. En effet, elles peuvent être classifiées en deux grandes
familles. Dans la première famille de méthodes, nommées : méthodes quantitatifs, la redondance
d’informations et la connaissance fournie par le modèle mathématique sont utilisées afin de ca-
ractériser le mode de fonctionnement ou l’état du système, et de confirmer ou d’infirmer l’existence
du défaut. La deuxième famille de méthodes, appelées également : méthodes qualitatifs, exploite
les techniques d’intelligence artificielle basées sur l’analyse de données fournies par des expériences
passées sur le système, permettant ainsi de décider de son état de fonctionnement.
Un panorama général des différentes méthodes de diagnostic est présenté dans la Figure 2.1.
– 12 –
Chapitre 2. Méthodes de diagnostic de défauts Module. Diagnostic des systèmes
Les méthodes mono-signal se reposent sur les techniques de traitement du signal. Ainsi, dans
le but d’extraire des informations révélatrices de défauts, ces méthodes se basent sur l’étude des
signaux, pris isolément les uns des autres.
2.2.1.2 Seuillage
Afin de détecter les défauts, les mesures doivent être comparées à des seuils critiques définis
par avance. Le fait de dépasser un seuil présente des risques sur le fonctionnement du processus.
Dans plusieurs systèmes, deux niveaux limites sont définis : le premier niveau permet seulement
à l’avertissement préalable de la présence d’un défaut, tandis que dans le deuxième niveau, des
mesures d’urgence sont déclenchées.
Dans un état de fonctionnement normal, certaines mesures ont un spectre typique de fréquence ;
toute déviation de celui-ci se traduit par une anomalie. Certains types de défaillances peuvent même
caractérisées par une signature spécifique dans le spectre, ce qui peut être très utile pour l’isolation
de défauts. Cette méthode est bien adoptée pour l’analyse des signaux ayant des oscillations avec
des périodes longues (les pressions, les débits...). Lorsque les fréquences représentatives de défauts
sont connues, il est préférable d’utiliser l’une des méthodes suivantes : auto-corrélation, densité
spectrale des signaux, transformée de Fourier ou ondelettes. Dans le cas contraire, les fréquences
caractéristiques et les valeurs moyennes des paramètres peuvent être estimées en ligne par l’utili-
sation des modèles paramétriques de signaux.
Les approches statistiques se basent sur l’hypothèse de changements rapides (et non pas sur
l’amplitude) des caractéristiques du signal ou des paramètres du modèle, d’où la nécessite du
calcul des paramètres statistiques (tels que la moyenne, la variance, ...etc) de certaines variables
significatives du processus, afin de détecter la présence d’un défaut.
En se basant sur le concept de la redondance analytique, ces méthodes utilisent plus d’informa-
tion que celles apportées par les capteurs physiques pour générer les estimées de quelques grandeurs
du système. Afin de remplir la fonction du diagnostic, ces variables estimées sont utilisées avec les
mesures prélevées du système. Pour procéder à la synthèse d’un schéma de diagnostic à base de
modèle, on doit d’abord avoir le modèle mathématique le plus précis que possible du système à
surveiller (voir Figure 2.2).
de redondance analytique) est une équation dans laquelle toutes les variables sont connues. La
génération de telles relations permet d’engendrer des résidus. Si ces résidus sont statistiquement
nuls, les mesures sont cohérentes par rapport au modèle, le système est déclaré sans défaut. Un
résidu non nul implique l’existence d’un défaut.
Le principe de base de ces méthodes consiste à estimer la sortie du système à partir des variables
mesurées (ou une partie de ces variables) soit par un observateur de Luenberger ou à entrées in-
connues (unknown input observer) dans le cadre déterministe, soit par un filtre de Kalman dans le
contexte stochastique. Les résidus sont généralement générés en formant les différences entre les sor-
ties estimées et les sorties réelles. Ces résidus doivent servir d’indicateurs fiables du comportement
du processus. La flexibilité de ces approches réside dans le choix du gain des observateurs.
Cette approche considère que l’influence de défauts se reflète sur les paramètres physiques et
non pas uniquement, comme le cas des observateurs, sur les variables du système. L’idée princi-
pale est d’estimer en temps réel des paramètres du procédé (e.g. masse, coefficient de viscosité,
...etc.) en utilisant les mesures d’entrées/sorties. Le vecteur de résidus est obtenu donc en faisant la
différence entre les grandeurs estimées et les valeurs nominales. Autrement dit, tout écart notable
des paramètres estimés par rapport aux valeurs nominales est révélateur d’un défaut.
Contrairement aux méthodes à base de connaissances, celles à base de données reposent sur
l’exploitation d’une base de connaissance symbolique (basée sur le savoir et l’expérience d’opérateur
humain ayant une parfaite maı̂trise du système à surveiller) et nécessitent l’existence d’un large
éventail de données historiques (base de connaissances numériques) correspondant aux divers modes
de fonctionnement de l’installation. L’objectif de ces approches est alors de construire un modèle
ajusté sur les données collectées, et la principale difficulté va donc être de définir non seulement la
structure appropriée du modèle, mais aussi le calage approprié entre ce modèle et le système. Suivant
ce type d’approches, on retrouve l’ensemble des méthodes basées sur l’intelligence artificielle, à
savoir : la reconnaissance de formes, les réseaux de neurones, les systèmes d’inférence floue et les
systèmes experts.
Cette approche consiste à effectuer une classification automatique d’objet suivant sa ressem-
blance par rapport à un objet de référence, c’est-à-dire, de décider à quelle classe d’objets connus,
l’objet observé, appelé également forme, doit être affecter. Dans un problème de diagnostic, une
classe est formée par l’ensemble d’observations caractérisant une situation ou un mode de fonction-
nement de processus : par exemple, la classe C1 peut être liée au fonctionnement normal du procédé,
la classe C2 pour le fonctionnement dégradé et la classe C3 pour le fonctionnement défaillant. Le
diagnostic consiste à associer toute nouvelle observation à une classe, autrement dit, de décider,
après avoir observé un objet, à quelle classe type celui-ci ressemble la plus. Ce problème revient
donc à la détermination des frontières entre classes et l’affectation de chaque forme à la classe qui
lui convient. Le calcul de l’erreur de classification peut être choisi comme un critère de décision pour
assigner une forme à une classe et de déterminer avec quelle confiance est effectuée cette décision.
Un réseau de neurone est un modèle de calcul dont la conception est schématiquement ins-
pirée du fonctionnent de vrais neurones humaines. En effet, un RNA est un système informatique
constitué d’un nombre de processeurs élémentaires (nœuds) interconnectés entre eux qui traite l’in-
formation qui lui arrive à partir des signaux extérieurs. La synthèse du RNA repose sur plusieurs
étapes : le choix du type de réseau, du type de neurones, du nombre de couches et des méthodes
d’apprentissage.
Pour le diagnostic à base de réseaux de neurones, un nombre suffisant d’exemples de fonction-
nement normal et défaillant doivent être disposés afin de pouvoir les apprendre. Pendant la phase
d’apprentissage, les nouveaux exemples sont présentés au réseau en entrée avec les diagnostics cor-
respondants à la sortie. Ainsi, le réseau s’auto-organise en apprenant à relier les exemples montrés
aux diagnostics. Après l’apprentissage, le réseau ne reconnaı̂t pas seulement les exemples appris,
mais également des paradigmes leur ressemblant, à qui correspond à une certaine robustesse par
rapport aux déformations de signaux par le bruit.
La relation mathématique qui existe entre un défaut et ses symptômes est la plus souvent
difficile à obtenir. Toutefois, l’expérience d’opérateur humain, ayant une bonne maı̂trise du système,
parait précieuse dans la détermination, sur base de leur observations, de l’élément défaillant qui
est à l’origine d’un comportement qu’il est jugé anormal. Ce type de savoir peut être exprimé
avec une liste de règles de la forme : SI (condition) ALORS (conclusion), où la partie condition
comporte les symptômes observés et la partie conclusion concerne l’élément défaillant. L’idée est
alors de construire un dispositif, appelé système d’inférences floues, capable d’imiter les prises de
décisions d’un opérateur humain à partir de règles verbales traduisant ses connaissances relatives
à un processus donné. Les formalismes les plus utilisés pour les SIF sont ceux de Mandani et de
Takagi-Sugeno.
Un système expert est un système informatique employé pour résoudre un problème donné
à partir d’une analyse, d’une représentation des connaissances et du raisonnement d’un ou de
plusieurs spécialistes de ce problème. Il utilise notamment une information heuristique afin de lier
les symptômes aux défauts. A partir de l’ensemble des symptômes existants, il déduit toutes les
conclusions possibles, élabore de nouvelles hypothèses et approfondit son diagnostic en se servant
des informations supplémentaires collectées sur le système à surveiller. Les systèmes experts sont
composés de deux parties indépendantes : une base de connaissances et un moteur d’inférence.
La base de connaissances peut être subdivisée en deux groupes : la base de faits et la base de
règles. La base de faits représente l’état du système observé. La base de règles est un ensemble de
règles logiques qui permettent de déduire de nouveaux faits à partir des prémisses (i.e. d’autres
faits déjà établis). Le moteur d’inférence représente l’organe de résolution, il permet la sélection de
règles dans la base de connaissance en fonction des faits établis, la résolution des conflits entre les
règles sélectionnées, et l’exécution en indiquant les conditions de déclenchement et les conséquences
jusqu’à ce que le but recherché (le diagnostic par exemple) soit atteint.
3.1 Introduction
Le problème de l’estimation de l’état d’un système est d’une importance pratique considérable,
que ce soit pour la mise en œuvre d’une loi de commande ou pour l’élaboration d’une stratégie
de diagnostic. L’observateur revient à un modèle parallèle au système avec une contre réaction
qui pondère l’écart de sortie. Le principe du diagnostic de défauts basé sur les observateurs est de
reconstruire une partie ou l’ensemble de sortie du système à partir des grandeurs accessibles du
procédé. Les résidus sont généralement générés en formant les différences (éventuellement filtrées)
entre les sorties estimées et les sorties réelles (voir Figure 3.1). Dans ce qui suit, on s’intéresse aux
approches de diagnostic via l’observateur de Luenberger, à entrées inconnues, et à base du filtre de
Kalman.
– 18 –
Chapitre 3. Diagnostic à base d’observateurs Module. Diagnostic des systèmes
où x(t) ∈ Rn , y(t) ∈ Rp et u(t) ∈ Rm sont, respectivement, les vecteurs : d’état, de sorties et
d’entrées du système, et f (t) ∈ Rqf est un vecteur inconnu représentant l’effet de défauts, distribués
via les matrices constantes connues Fx et Fy .
L’objectif ici est de synthétiser un vecteur de résidus r(t) sur la base de ce modèle de sorte que
ces résidus soient nuls en état normal (i.e. r(t) = 0 si f (t) = 0) et différents de zéro en présence de
défauts (i.e. r(t) 6= 0 si f (t) 6= 0)
Supposons que la paire (A, C) est observable, l’observateur d’état de Luenberger est donné
comme suit :
˙
x̂(t)
= Ax̂(t) + Bu(t) + L (y(t) − ŷ(t)) , x̂(0) = x̂0
(3.2)
ŷ(t) = C x̂(t)
où L représente la matrice de gain de l’observateur. Elle est calculée de telle sorte que l’état estimé
x̂(t) tends vers l’état réel x(t) du système quand t → ∞, quels que soient les états initiaux x(0) et
x̂(0).
La dynamique de l’erreur d’estimation sur l’état ex (t) = x(t) − x̂(t) peut s’écrire de la façon
suivante :
˙
ėx (t) = ẋ(t) − x̂(t)
(3.3)
= Ax(t) + Bu(t) + Fx f (t) − Ax̂(t) − Bu(t) − Ly(t) − Lŷ(t)
En l’absence de défaut (i.e. f (t) = 0), l’équation (3.4) devient : ėx (t) = (A − LC) ex (t). Afin de
rendre lim ex (t) = 0 , la matrice de gain L est calculée d’une façon que la matrice (A − LC) soit
t→∞
stable.
On s’intéresse maintenant à la matrice de transfert reliant les défauts f (t) à l’erreur d’estimation
de l’état ex (t). Supposons que les conditions initiales sont nulles, la transformée de Laplace de (3.4)
peut être écrite comme suit :
On remarque que cette erreur est liée directement aux défauts f (s). Alors, elle pourrait être
utilisée pour générer un vecteur de résidus. Cependant, l’écart ex (t) ne peut être exploité directe-
ment, tant que le vecteur d’état n’est pas complètement connu. Pour éviter ce problème, on utilise
l’erreur d’estimation en sortie ey (t), elle s’écrit :
D’après (3.8), il est clair que l’écart ey (t) est sensible aux défauts. Donc, il peut être exploité pour
construire un vecteur indicateur de défauts (résidus). Considérons le vecteur de résidus suivant :
A partir de la formule de r(s), on peut facilement détecter les défauts, c’est-à-dire s’il y a des défauts
ou non. Toutefois, les éléments de la matrice Gf (s) étant non nuls, il est impossible de localiser
ces défauts. Donc, l’équation (3.9) ne peut pas être implémentée directement. Afin de résoudre ce
problème, le vecteur de résidus doit être structuré en utilisant une matrice de paramétrisation Q(s)
stable (voir Figure 3.2), tel que :
où M , N , P et Ly sont des matrices inconnues de dimensions adéquates, qui vont être déterminées
de façon que l’erreur d’estimation ex (t) = x̂(t) − x(t) converge asymptotiquement vers zéro (i.e.
x̂(t) → x(t) quand t → ∞), malgré la présence des perturbations. Cette erreur peut s’écrire comme
suit :
ex (t) = z(t) − Ly y(t) − x(t)
où E = I + Ly C.
La dynamique de ex (t) s’écrit donc :
La résolution du système (3.15) consiste, d’abord, à calculer la matrice Ly qui assure la condition
de découplage des entrées inconnues : EDx = 0, avec E = I + Ly C, d’où : Ly CDx = −Dx . Si la
h i−1
pseudo-inverse de CDx , notée (CDx )+ = (CDx )T (CDx ) (CDx )T , existe, Ly peut être calculée
de la manière suivante :
h i−1
Ly = −Dx (CDx )+ = −Dx (CDx )T (CDx ) (CDx )T (3.17)
Une condition nécessaire pour l’existence d’un tel observateur est donnée par la condition de
rang suivante :
rang (CDx ) = rang (Dx ) = qd < p (3.18)
où qd représente le nombre d’entrées inconnues. Cette condition signifie que pour pouvoir construire
un observateur à entrées inconnues, le nombre de sorties p doit être supérieur aux entrées inconnues
à découpler. La synthèse de l’observateur peut être résumée comme suit :
2. Calculer E = I + Ly C à partir de Ly .
3. Calculer N = EB à partir de E.
4. Imposer que M soit une matrice de Hurwitz. Afin de faciliter les calculs, en faisant apparaitre
explicitement les valeurs propres désirées pour l’observateur, M peut être choisie comme une
matrice diagonale.
On calcul maintenant la matrice de transfert reliant les défauts f (t) à l’erreur d’estimation en
sortie ey (t). Supposons que H1 = M Ly Fy + P Fy − EFx et H2 = −Ly Fy , la transformée de Laplace
de (3.16) peut s’exprimer par :
0
ey (s) = Gf (s)f (s) (3.22)
0
où Gf (s) = C (sI − M )−1 (H1 + sH2 ) − Fy , H1 = M Ly Fy + P Fy − EFx et H2 = −Ly Fy .
Dans le but de faciliter la localisation de défauts, on utilise une matrice de transfert Q(s) stable,
permettant de structurer le vecteur de résidus r(s), de façon que :
0 0
r(s) = Q(s)ey (s) = Q(s)Gf (s)f (s), Q(s)Gf (s) 6= 0 (3.23)
où x(k) ∈ Rn est le vecteur d’état, u(k) ∈ Rm est le vecteur d’entrées, y(k) ∈ Rp est le vecteur de
sorties, w(k) ∈ Rq et v(k) ∈ Rp sont, respectivement, des bruits affectant l’état et les mesures du
système.
h i
x̄0 = E [x(0)] (moyenne), et P0 = E (x(0) − x̄0 ) (x(0) − x̄0 )T (variance)
3. Les signaux w(k) et v(k) sont des bruits pseudo-blancs gaussiens centrés de matrices de
covariance W et V respectivement, c’est-à-dire :
4. L’état initial x(0), le bruit de système w(k) et le bruit de mesures v(k) sont mutuellement
indépendants, tels que :
Étant donné le modèle dynamique et connaissant les entrées et les sorties jusqu’à l’instant actuel
k, c-à-d, Y (k) = {u(i), y(i) |i ≤ k }, l’objectif est de chercher un estimé linéaire x̂ (k |k ) de x(k) qui
est à variance minimale, en d’autres termes, qui minimise la trace de la matrice de covariance
h i
P (k |k ) = E e (k |k ) e (k |k )T de l’erreur d’estimation e (k |k ) = x (k) − x̂ (k |k ).
Le filtre de Kalman estimateur est un filtre récursif, qui est déterminé en deux étapes dénommées :
prédiction et estimation, en utilisant la relation de récurrence reliant l’estimé future x̂ (k + 1 |k + 1 )
à l’estimé à l’instant précédente x̂ (k |k ) et aux mesures collectées à l’instant k + 1 (i.e. u (k + 1) et
y (k + 1)).
étape 1 étape 2
x̂ (k |k ) −−−−−−→ x̂ (k + 1 |k ) −−−−−−→ x̂ (k + 1 |k + 1 )
Prédiction Estimtaion
Étant donné l’estimé x̂ (k |k ) avec les mesures jusqu’à l’instant k, l’idée de cette étape consiste
à prédire l’état x (k + 1) en utilisant le modèle stochastique :
avec ŷ (k + 1 |k ) = C x̂ (k + 1 |k ).
A l’instant k, l’erreur d’estimation e (k |k ) = x (k) − x̂ (k |k ) était caractérisée par P (k |k ) =
h i
T
E e (k |k ) e (k |k ) . Ainsi, à l’instant k + 1, l’erreur de prédiction e (k + 1 |k ) = x (k + 1) −
x̂ (k + 1 |k ) sera caractérisée par :
h i
P (k + 1 |k ) = E e (k + 1 |k ) e (k + 1 |k )T
(3.29)
T
= AP (k |k ) A + W
Cette étape consiste à établir les relations reliant l’estimé à posteriori x̂ (k + 1 |k + 1 ) à l’estimé
à priori x̂ (k + 1 |k ), en utilisant les mesures à l’instant k + 1. Donc, on cherche un estimateur
linéaire, permettant le recalage de la prédiction avec l’innovation via un gain de filtre :
x̂ (k + 1 |k + 1 ) = x̂ (k + 1 |k ) + Ke (k + 1) (y(k + 1) − C x̂ (k + 1 |k )) (3.30)
| {z } | {z }
Gain du filtre Innovation γ(k+1)
| {z }
Terme de correction
e (k + 1 |k + 1) = x (k + 1) − x̂ (k + 1 |k + 1 )
(3.31)
= (I − Ke (k + 1)C) (x (k + 1) − x̂ (k + 1 |k )) − Ke (k + 1)v(k + 1)
et
h i
P (k + 1 |k + 1 ) =E e (k + 1 |k + 1 ) e(k + 1 |k + 1 )T
=P (k + 1 |k ) − Ke (k + 1)CP (k + 1 |k ) − P (k + 1 |k ) C T KeT (k + 1)
+ Ke (k + 1) CP (k + 1 |k ) C T + V KeT (k + 1)
(3.32)
Le gain de Kalman Ke (k + 1) est déterminé en minimisant le critère J = trace (P (k + 1 |k + 1 )) :
∂J
= −2P (k + 1 |k ) C T + 2Ke (k + 1) CP (k + 1 |k ) C T + V
(3.33)
∂Ke (k + 1)
−1
Ke (k + 1) = P (k + 1 |k ) C T CP (k + 1 |k ) C T + V (3.34)
P (k + 1 |k + 1 ) = (I − Ke (k + 1)C) P (k + 1 |k ) (3.35)
Pour une application en temps réel des récurrences précédentes, le filtre de Kalman peut être
implémenté selon l’algorithme suivant :
— Prédiction
x̂ (k + 1 |k ) = Ax̂ (k |k ) + Bu(k)
P (k + 1 |k ) = AP (k |k ) AT + W
— Estimation
−1
Ke (k + 1) = P (k + 1 |k ) C T CP (k + 1 |k ) C T + V
x̂ (k + 1 |k + 1 ) = x̂ (k + 1 |k ) + Ke (k + 1) (y(k + 1) − C x̂ (k + 1 |k ))
P (k + 1 |k + 1 ) = P (k + 1 |k ) − Ke (k + 1)CP (k + 1 |k )
3. Fin pour.
L’objectif ici est de chercher un estimé linéaire x̂ (k |k − 1 ) de x(k) qui minimise la trace de la
matrice de covariance P (k |k − 1 ) de l’erreur de prédiction e (k |k − 1 ) = x (k) − x̂ (k |k − 1 ).
Le filtre de Kalman prédicteur est un filtre récursif, qui est déterminé directement, en utilisant
la relation de récurrence reliant x̂ (k + 1 |k ) à l’estimé à l’instant précédente x̂ (k |k − 1 ) et aux
mesures collectées à l’instant k (i.e. u(k) et y(k)).
Prédiction
x̂ (k |k − 1 ) −−−−−−→ x̂ (k + 1 |k )
directe
— Prédiction
P (k + 1 |k ) = AP (k |k − 1 ) AT − Kp (k + 1)CP (k |k − 1 ) AT + W
3. Fin pour.
Remarque 3.1. Le filtre de Kalman prédicteur peut être obtenu à partir du filtre de Kalman
estimateur, en remplaçant les équations d’estimation dans celles de prédiction.
P (k |k ) < P (k |k − 1) ⇒ E e (k |k ) eT (k |k ) < E e (k |k − 1) eT (k |k − 1 )
4. La séquence d’innovation γ (k) = y(k) − C x̂ (k |k − 1 ) est un bruit blanc gaussien ayant les
propriétés :
h i h i
E [γ (k)] = 0, E γ (k) γ(k)T = CP (k |k − 1 ) C T + V et E γ (k) γ(i)T = 0 si k 6= i
Le filtre de Kalman est stable si pour des conditions initiales données et pour des entrées bornées,
l’estimateur x̂ (k + 1 |k + 1 ) et le prédicteur x̂ (k + 1 |k ) restent bornés.
Afin de réduire la complexité temporelle du filtre de Kalman, une version stationnaire peut
être utilisée avec un temps d’exécution plus rapide. Pour cela, les conditions de stabilité suivantes
doivent être satisfaites avant de passer à l’implémentation en temps réel :
2. La paire (A, H) est stabilisable (commandable), où la matrice carrée H est choisie telle que :
HH T = W .
La satisfaction de toutes les conditions ci-dessus permet la synthèse d’un filtre de Kalman
stationnaire. D’abord, il faut calculer la matrice de covariance P∞ en résolvant l’équation algébrique
de Riccati discrète (DARE) suivante :
−1
P∞ = AP∞ AT − AP∞ C T CP∞ C T + V CP∞ AT + W (3.36)
Une fois cette matrice est calculée, on passe au calcul du gain constant du filtre estimateur Ke∞
ou prédicteur Kp∞ :
−1
Ke∞ = P∞ C T CP∞ C T + V (3.37)
−1
Kp∞ = AP∞ C T CP∞ C T + V (3.38)
Par la suite, l’implémentation des deux filtres de Kalman stationnaires estimateur et prédicteur se
fait comme suit :
— Filtre estimateur
— Filtre prédicteur
3. Fin pour.
x(k + 1) = Ax(k) + Bu(k) + w(k) + Fx f (k)
(3.39)
y(k) = Cx(k) + v(k) + F f (k)
y
où f (t) ∈ Rqf est le vecteur de défauts. Afin de surveiller le système, on utilise l’erreur d’estimation
en sortie (i.e. la séquence d’innovation) comme un signal indicateur de défaut (résidu) :
En absence de défaut, le vecteur de résidus r(k) suit une distribution gaussienne r(k) ∼ N r (k) ,
0, CP (k |k − 1 ) C T + V (voir propriété 4 du filtre de Kalman). L’apparition d’un défaut provoque
un changement de la moyenne (qui devienne non nulle), de la matrice de covariance ou même rend
le résidu non-blanc (coloré) ou non-gaussien. Cette modification peut être détectée en utilisant des
algorithmes de détection de changement basés sur l’analyse des propriétés statistiques du signal
résidu (pour plus de détail, voir la section 6.3 du chapitre 6).
La localisation de défauts avec le filtre de Kalman est plus délicate par rapport aux autres
approches à base d’observateurs (Luenberger et à entrées inconnues). En effet, la construction d’un
banc de filtres de détection, dédié à chaque défaut suspecté, permettant de vérifier la cohérence
des filtres avec les observations réelles, peut résoudre ce problème. Cependant, cette solution peut
entraı̂ner des coûts élevés de calcul.
4.1 Introduction
• Redondance statique : elle représente l’ensemble de relations algébriques entre les mesures
issues des différents capteurs.
Dans un système physique, les variables mesurées sont généralement liées par un ensemble de
relations algébriques. L’objective de la redondance statique est de trouver les relations existantes
entre les mesures fournies par les différents capteurs en utilisant le modèle mathématique du système
– 31 –
Chapitre 4. Génération de résidus par espace de parité Module. Diagnostic des systèmes
où y(k) ∈ Rp est le vecteur de mesures, C ∈ Rp x n est la matrice d’observation, x(k) ∈ Rn est le
vecteur d’état du système, f (k) ∈ Rqf est le vecteur de défauts, et Fy ∈ Rp x qf est la matrice de
distribution des défauts de capteurs.
Pour détecter la présence de défauts, on cherche à établir des relations de redondance analytique
entre les mesures y(k), qui sont indépendantes des états inconnus x(k), mais qui restent sensibles
aux défauts f (k). Pour ce fait, il faut que : rang (C) < p. Par conséquent, il est possible de trouver
une matrice de projection (de parité) W de dimension (p − rang (C) , p) orthogonale à C (i.e.
W C = 0), permettant d’avoir des relations indépendantes en fonction des mesures. En projetant
l’équation de mesure dans l’espace de parité, c’est-à-dire en multipliant les deux côtés de (4.1) par
W , on obtient :
qf
X
r(k) = W y(k) = W C x(k) + W Fy f (k) =
|{z} Vi fi (k) (4.2)
| {z }
0 i=1
V 6=0
où r(k) est le vecteur de parité de dimension p − rang(C), Vi est le ième vecteur colonne de la
matrice V = W Fy 6= 0. La détection des défauts de capteurs s’effectue selon la valeur du vecteur
de résidus r(k). En absence de défaut, ce vecteur est nul (i.e. r(k) = 0). En cas de présence d’un
défaut fi (k), le vecteur r(k) s’oriente vers la direction de Vi correspondant au vecteur défaillant.
Exemple 4.1 : Considérons l’équation de mesure suivante :
y1 (k) 1 0 1 0 f1 (k)
y2 (k) = 1 x(k) + 0 0 1 f2 (k)
y3 (k) 1 1 0 0 f3 (k)
h iT
On a : p = qf = 3, C = 1 1 1 et rang (C) = 1. Donc, l’espace de parité est de dimension
p − rang (C) = 2. Une matrice W peut être choisie en cherchant deux vecteurs orthogonaux à C.
Parmi les solutions existantes, on choisit :
1 −1 0
W =
0 1 −1
ou de même,
0 1 −1
r(k) = f1 (k) + f2 (k) + f3 (k)
−1 0 1
| {z } |{z} | {z }
V1 V2 V3
L’interprétation géométrique de ces relations de redondance analytique (RRA) est appelée résidu
directionnel. Ce type de résidu est employé afin d’effectuer la localisation de défauts. Il est conçu
de façon que, en réponse à un défaut donné, le vecteur de résidus r(k) soit orienté suivant une
direction bien précise dans l’espace de parité. Dans cet exemple, l’espace de parité est un espace de
dimension 2 (voir Figure 4.1). Le vecteur de résidus se déplacera suivant une direction spécifique à
chacune des défauts.
Dans le cas où la matrice C est de rang plein colonne (i.e. rang (C) = n < p), les lignes de
W forment une base de l’espace de parité de dimension p − n. Une façon simple de déterminer la
matrice de parité W est de réarranger l’équation (4.1). En absence de défaut (lorsque f (k) = 0),
la relation (4.1) peut être exprimée de la manière suivante :
yn (k) Cn
= x(k) (4.3)
yp−n (k) Cp−n
| {z } | {z }
ȳ(k) C̄
où Cn est une matrice carrée inversible composée de n lignes indépendantes de C, et Cp−n est
la matrice obtenue à l’aide de p − n lignes restantes de la matrice C. Afin d’obtenir une relation
indépendante du vecteur d’état inconnu, permettant au même temps de vérifier la cohérence des
mesures, l’équation (4.3) est reformulée de la façon suivante :
Ce qui conduit à :
h i yn (k)
− Cp−n Cn−1 yn (k) + yp−n (k) = −Cp−n Cn−1 Ip−n = W ȳ(k) = r(k) = 0 (4.5)
yp−n (k)
h i
où la matrice de parité W = −Cp−n Cn−1 Ip−n ∈ R(p−n) x p est orthogonale à C̄ (i.e. W C̄ = 0).
Exemple 4.2 : Soit l’équation de mesure suivante :
−1 4
1 0
y (k) =
x (k)
1 −1
0 3
| {z }
C
Avant l’occurrence de défauts, ces deux relations de redondance analytique sont satisfaites (ils
sont nulles), ce qui indique qu’il y a une cohérence des mesures. Cette cohérence sera disparaı̂t et
ces RRAs n’ont plus vérifiées en présence d’un défaut.
Il est à noter que la nécessité d’avoir le nombre des états inférieur au nombre des mesures du
système (i.e. n < p), rend la redondance statique un peu restreinte. Afin de relaxer cette contrainte,
on prend en considération la dynamique du système, c’est-à-dire, l’évolution temporelle des mesures
et des entrées de commande. Donc, on parle de la redondance dynamique (ou temporelle).
La redondance dynamique est une extension de la redondance statique dans le cas d’utilisation
d’un modèle dynamique du système étudié. L’idée ici est de trouver des relations entre les mesures
fournies par les différents capteurs et les entrées du système aux différents instants (voir Figure
4.2). Considérons le système linéaire discret défaillant suivant :
x(k + 1) = Ax(k) + Bu(k) + Fx f (k)
(4.6)
y(k) = Cx(k) + F f (k)
y
où x(k) ∈ Rn , y(k) ∈ Rp et u(k) ∈ Rm et f (t) ∈ Rqf sont, respectivement, les vecteurs : d’état,
de mesures, d’entrées de commande, et de défauts ; Fx ∈ Rn x qf est la matrice de distribution des
défauts d’actionneurs. L’objectif est de construire un générateur de résidus capable d’effectuer, à
la fois, la détection et la localisation des défauts de capteurs et/ou d’actionneurs.
Considérons une fenêtre temporelle [k, k + l[ de taille l, pour laquelle l’état x(k + l) peut être
exprimé en fonction de l’état à l’instant k (i.e. x(k)), des variables d’entrées connues, et des défauts
éventuels aux instants k à k + l − 1 (i.e. u(k) jusqu’à u(k + l − 1) et f (k) jusqu’à f (k + l − 1)) de
la manière suivante :
l
X l
X
l l−i
x(k + l) = A x(k) + A Bu(k + i − 1) + Al−i Fx f (k + i − 1) (4.7)
i=1 i=1
Par conséquent, le vecteur de mesures sur cette fenêtre d’observation (i.e. y(k) jusqu’à y(k + l))
peut s’écrire sous la forme matricielle compacte suivante :
y(k) u(k) f (k) C
y(k + 1) u(k + 1) f (k + 1) CA
avec y(k, k + l) = y(k + 2), u(k, k + l) = u(k + 2), f (k, k + l) = f (k + 2), Ho (l) = CA2 ,
.. .. .. ..
.
.
.
.
y(k + l) u(k + l) f (k + l) CAl
0 0 0 ··· 0 Fy 0 ··· 0 0
CB 0 · · · 0 0 CFx Fy ··· 0 0
Hu (l) = CAB CB 0 et Hf (l) = CAFx CFx Fy .
.. .. .. . . ..
. .. .. .. ..
. . . . .
CAl−1 B CAl−2 B · · · CB 0 CAl−1 Fx CAl−2 Fx · · · CFx Fy
Le vecteur de résidus peut être exprimé en fonction des entrées et des sorties du système selon la
relation suivante :
r(k, k + l) = W y(k, k + l) − Hu (l) u(k, k + l) = W Hf (l) f (k, k + l) (4.9)
où W représente la matrice de parité, qui doit être orthogonale à Ho (l) (i.e. W Ho (l) = 0). Afin
d’assurer la détection de défauts, il faut que la condition : W Hf (l) 6= 0 soit satisfaite.
On distingue deux types de résidus correspondant chacun à une redondance analytique parti-
culière : l’auto-redondance et l’inter-redondance.
4.3.1 Auto-redondance
L’écriture de l’équation (4.9) pour chaque capteur permet l’obtention des relations d’auto-
redondance. En effet, pour un capteur donné, on ne conserve que les relations indépendantes
permettant d’exprimer une partie de l’état. Pour j variant de 1 à p, la relation (4.9) peut s’écrire :
yj (k, k + lj ) = Hoj (lj ) x(k) + Huj (lj ) u(k, k + lj ) + Hfj (lj ) f (k, k + lj ) (4.10)
Cj 0 0 ··· 0 0
Cj A Cj B 0 ··· 0 0
avec Hoj (lj ) = Cj A2 , Huj (lj ) = Cj AB Cj B 0
.. .. .. ..
. .
. . . . .
Cj A lj Cj A l j −1 B Cj A l j −2 B · · · Cj B 0
Fy 0 ··· 0 0
C F F · · · 0 0
j x y
et Hfj (lj ) = Cj AFx Cj Fx Fy .
.. .. ..
..
. . . .
Cj A lj −1 Fx Cj A lj −2 Fx · · · Cj Fx Fy
où Cj représente la j ème ligne de la matrice C, qui corresponde au capteur j. Soit nj l’indice
d’observabilité de la paire (A, Cj ), alors la fenêtre temporelle pour chaque capteur j comporte nj =
h T i T
lj + 1 lignes. En effet, la matrice Hoj (nj − 1)T = CjT (Cj A)T 2
T n −1
Cj A · · · Cj A j ,
dite matrice d’observabilité réduite (relative au j ème capteur) est de dimension (nj , n) et de rang
maximum nj . Les colonnes de cette matrice définissent l’espace d’observabilité du capteur j. La
somme des espaces d’observabilité associés à chacun des capteurs (i.e. de 1 à p) définit l’espace
d’observabilité du système. Afin d’avoir de la redondance, une ligne supplémentaire est ajoutée à
Hoj (nj − 1) de façon que :
yj (k, k + nj ) = Hoj (nj ) x(k) + Huj (nj ) u(k, k + nj ) + Hfj (nj ) f (k, k + nj ) (4.11)
L’idée donc est de trouver un vecteur ligne Wj qui satisfait les deux conditions suivantes :
rj (k) = Wj y(k, k + nj ) − Huj (nj ) u(k, k + nj ) = Wj Hfj (nj ) f (k, k + nj ) (4.13)
Notons que l’équation d’auto-redondance (4.13) est obtenue sans avoir besoin de l’état inconnu
x(k). La détection de défaut se fait selon la valeur du résidu rj (k). Cette valeur est égale à zéro (au
bruit de mesure prés) en état de fonctionnement normal (sans défaut), et différent de zéro après
4.3.2 Inter-redondance
Dans ce cas, la forme de calcul des résidus se fait en reliant les informations provenant de
plusieurs capteurs. Les relations d’inter-redondance sont obtenues donc en considérant les nj (j
varie de 1 à p) relations indépendantes qui corresponds à (4.10), c.-à-d. :
y1 (k, k + n1 − 1) Ho1 (n1 − 1) Hu1 (n1 − 1) u(k, k + n1 − 1)
.
..
.
..
.. ..
.
.
y (k, k + n − 1) = H (n − 1) x(k) + H (n − 1) u(k, k + n − 1)
j j oj j uj j j
.. .. .. ..
. . . .
yp (k, k + np − 1) Hop (np − 1) Hup (np − 1) u(k, k + np − 1)
(4.14)
H
f1 1 (n − 1) f (k, k + n 1 − 1)
.
..
.
..
+ Hfj (nj − 1) f (k, k + nj − 1)
.. ..
. .
Hfp (np − 1) f (k, k + np − 1)
p
P
Le système résultant (4.14) se compose de N relations indépendantes, avec N = nj . Pour un
j=1
vecteur d’état de dimension n, on peut trouver N − n relations d’inter-redondance indépendantes.
Ces relations sont obtenues par élimination du vecteur d’état. Cela revient à chercher une matrice
W qui vérifie les conditions suivantes :
Ho1 (n1 − 1) Hf1 (n1 − 1)
.. ..
.
.
W Hoj (nj − 1) H (n − 1) 6= 0
= 0, et W (4.15)
fj j
.
.
..
. .
Hop (np − 1) Hfp (np − 1)
5.1 Introduction
Contrairement aux approches de diagnostic à base observateurs et par espace de parité, déjà
étudiées aux chapitres 3 et 4, qui sont bien adaptées pour les défauts de capteurs et d’actionneurs,
la méthode de diagnostic par estimation paramétrique est mieux adaptée pour les défauts internes
du procédé (ou défauts composants). L’idée principale de cette approche est qu’un défaut se traduit
par la variation d’un (ou plusieurs) paramètre(s) caractéristique(s) du système, constituant ainsi
la signature de ce défaut. En effet, le diagnostic de défauts revient à réaliser une estimation des
paramètres d’un modèle de fonctionnement normal, dont la simple variation paramétrique est une
indication de la présence d’un défaut. Le suivi de l’évolution de ses paramètres caractéristiques est
donc un excellent moyen pour réaliser sa surveillance. Cette méthode repose essentiellement sur
deux éléments :
• avoir dans la mesure les relations reliant les paramètres du modèle aux paramètres physiques.
Le diagnostic à base de l’estimation paramétrique repose sur le principe selon lequel les défauts du
système peuvent être associés à des paramètres spécifiques du modèle mathématique d’un système
– 40 –
Chapitre 5. Diagnostic par identification paramétrique Module. Diagnostic des systèmes
où y(t), x(t), u(t), e(t) et θ représentent, respectivement, le vecteur de sorties, le vecteur d’état,
le vecteur d’entrées, les bruits et les erreurs de modélisation, et les paramètres non mesurables du
système, qui sont susceptibles de changer. Donc, il est évident qu’il faut avoir un modèle dynamique
précis du système afin d’appliquer les algorithmes d’estimation paramétrique. Un système peut être
représenté dans le domaine temporel via un modèle continu sous forme des équations différentielles,
ou via un modèle discret en utilisant des équations aux différences. Les paramètres du modèle θi
sont exprimés en fonction des coefficients physiques du système pi , dont les changements de ces
coefficients indiquent l’existence d’un défaut dans les composants de celui-ci. Par conséquent, ces
paramètres (analytiques θi et physiques pi ) doivent être estimés. Dans ce cas, il faut avoir des
grandeurs (entrées/sorties) mesurables qui permettent d’estimer les différents paramètres. Prenons
par exemple le modèle dynamique linéaire suivant :
représentés par le vecteur θ, sont définis comme des relations de plusieurs coefficients physiques
du système (i.e. θ = h (p)), par exemple : longueur, masse, vitesse, coefficient de traı̂née, visco-
sité, résistances, capacités...etc. Les défauts qui deviennent visibles dans ces constantes physiques,
peuvent être également exprimés dans les paramètres du modèle de processus. Si les paramètres
physiques du système p, indicatifs de défauts, ne sont pas directement mesurables, une tentative
peut être faite pour détecter leurs changements via les changements dans les paramètres du modèle
θ. Généralement, la procédure de diagnostic via l’estimation paramétrique s’effectue selon les étapes
suivantes :
3. Estimation des paramètres du modèle θi en utilisant les mesures de y(t) et u(t) par une
procédure d’estimation appropriée (méthode des moindres carrés par exemple),
p̂ (t) = h−1 θ̂ (t) (5.8)
5. Détermination des variations des coefficients physiques ∆pi = p̂i − pi par rapport aux pa-
ramètres nominaux pi en utilisant les relations inverses (5.6) et (5.8).
7. Localisation de défauts.
Figure 5.1: Méthodologie de diagnostic via l’estimation paramétrique en utilisant un modèle ana-
lytique.
Cependant, cette méthodologie exige l’existence des relations inverses (5.6) et (5.8), ce qui la
rendre applicable à une classe limitée des systèmes dynamiques.
5.3.1 Identifiabilité
Afin de fixer l’idée d’identifiabilité, on considère un exemple très simple représenté par un circuit
électrique RC série (voir Figure 5.2) :
Supposons que la capacité est n’est pas chargée initialement, donc, les équations physiques
correspondant sont données comme suit :
Le choix des variables entrée-sortie mesurées (u (t) , s (t)) permet de conduire à la relation (5.11),
h iT
qui lie un vecteur de paramètres physiques p = R C avec un seul paramètre analytique a1 .
Donc, il est impossible de calculer les deux grandeurs physiques R et C à partir d’un seul paramètre
a1 . Maintenant, en considérant le couple entrée-sortie (u (t) , i (t)), on a : θ1 = a1 = RC et θ2 = b1 =
C. Alors, grâce à (5.12), il est possible d’estimer les deux grandeurs R = θ1 /θ2 et C = θ2 . Ce qui
explique que le choix des variables entrées-sorties est donc déterminant pour garantir l’identifiabilité
La relation qui lie la tension du condensateur s(t) à la tension globale u(t) est la suivante :
a
d2 s (t) ds (t) h 2
i 1
a2 + a + s (t) = b u (t) ⇒ s (t) = − ds(t) − d dts(t) (5.13)
1 0 u(t) a2
dt2 dt |
dt
{z
2
}
U b0
| {z }
θ
R L C
θ1 1 0 1
θ2 0 1 1
Les colonnes de ce tableau forment les signatures théoriques des défauts physiques. Tant qu’elles
sont différentes, les écarts sur les paramètres physiques ∆pi pourront être localisés à partir des
écarts constatés sur les paramètres analytiques ∆θi .
Dans le cas où les différentes signatures par rapport aux défauts sur les paramètres physiques
sont distinctes (comme dans cet exemple), on parlera alors d’une identifiabilité structurelle.
La plupart des schémas de diagnostic via l’estimation paramétrique utilisent les méthodes des
moindres carrés. Modélisons le système (5.1) sous la forme :
où y(t) ∈ Rp , u(t) ∈ Rm , e(k) est un bruit blanc avec une moyenne nulle et une covariance R(θ),
G z −1 ; θ et H z −1 ; θ sont des filtres avec des dimensions appropriés, z −1 représente l’opérateur
de décalage vers l’arrière : z −1 [u(k)] = u(k − 1) et θ ∈ Rn est le vecteur des paramètres du modèle.
L’équation (5.14) décrit un modèle linéaire général, qui par un choix approprié des matrices G,
H et des paramètres θi , ce modèle peut être mis en formes plus familières. Un modèle ARMAX
(auto-régressive à moyenne ajustée avec entrée exogène) est obtenu si :
B z −1 C z −1
−1 −1
, R (θ) = λ2
G z ;θ = , H z ;θ =
A (z −1 ) A (z −1 )
avec,
A z −1 = 1 + a1 z −1 + · · · + anA z −nA
B z −1 = b1 z −1 + · · · + bnB z −nB
C z −1 = 1 + c1 z −1 + · · · + cnC z −nC
h iT
θ = a1 · · · anA b1 · · · bnB c1 · · · cnC (5.15)
Cette structure peut être considérée comme une régression linéaire. En effet, le modèle (5.18) peut
être reformulé de la manière suivante :
avec,
h iT
θ = a1 · · · anA b1 · · · bnB (5.20)
et,
h iT
φ(k) = −y(k − 1) · · · − y(k − nA ) u(k − 1) · · · u(k − nB ) (5.21)
Ainsi, dans le cas où nB = 0 (i.e. B z −1 = 0), un modèle ARMA (auto-régressive à moyenne
h iT
θ = a1 · · · anA c1 · · · cnC (5.23)
et,
h iT
φ(k) = −y(k − 1) · · · − y(k − nA ) e(k − 1) · · · e(k − nC ) (5.24)
Remarque 5.1. Il est important de noter que le modèle linéaire stochastique défini par (3.24) :
x(k + 1) = A (θ) x(k) + B (θ) u(k) + w(k)
y(k) = C (θ) x(k) + v(k)
où w(k) ∈ Rn et v(k) ∈ Rp sont des bruits blancs centrés avec de matrices de covariance W et V
h i h i h i
E w (k) w(i)T = W δk,i , E v (k) v(i)T = V δk,i et E w (k) v(i)T = 0
peut être transformé sous la forme générale (5.14), si les conditions suivantes sont satisfaites :
−1
K(θ) = A(θ)P (θ)C T (θ) C(θ)P (θ)C T (θ) + V
−1
P (θ) = A(θ)P (θ)AT (θ) − A(θ)P (θ)C T (θ) C(θ)P (θ)C T (θ) + V C(θ)P (θ)AT (θ) + W
| {z }
K(θ)
Considérons maintenant le modèle ARMA donné par (5.19) et (5.23)-(5.24) (ou le modèle ARX
donné par (5.20)-(5.21)), l’estimation du vecteur de paramètres au sens des moindres carrés (MC)
se donne sous la forme :
−1
θ̂ (k) = ΦT (k) Φ (k) ΦT (k) Y (k)
" k #−1 " k # (5.25)
X X
T
= φ (i) φ (i) φ (i) y (i)
i=1 i=1
h iT h iT
où Φ(k) = φT (1) · · · φT (k) , et Y (k) = y(1) · · · y(k) .
L’expression (5.25) peut être calculée d’une manière récursive. Introduisons la notation suivante :
" k #−1
X
P (k) = φ (i) φT (i) (5.26)
i=1
Il vient :
k−1
" ! #
X
θ̂ (k) = P (k) φ (i) y (i) + φ (k) y (k)
i=1
h i (5.28)
= P (k) P −1 (k − 1) θ̂ (k − 1) + φ (k) y (k)
h i
= θ̂ (k − 1) + P (k) φ (k) y (k) − φT (k) θ̂ (k − 1)
ou encore,
Le terme ε(k) est interprété comme une erreur de prédiction a priori, puisque, il représente
l’erreur entre la sortie mesurée y(k) et la prédiction ŷ (k |k − 1 ) = φT (k) θ̂ (k − 1) calculée à partir
de θ̂(k − 1) (non θ̂(k)). Si l’erreur ε(k) est petite, l’estimation θ̂(k − 1) est bonne et ne devrait pas
être modifiée beaucoup. Le vecteur K(k) dans (5.29b) doit être interprété comme un facteur de
pondération (ou de gain) montrant combien la valeur de ε(k) va modifier les différents éléments du
vecteur de paramètres.
Il est à noter que le calcul de θ̂(k) nécessite la connaissance de P (k), alors que l’on dispose
seulement de P −1 (k) (voir l’équation (5.27)). Le calcul précédent exige alors de réaliser une inver-
sion matricielle à chaque pas d’échantillonnage, ce qui n’est pas souhaitable. Afin de résoudre ce
problème, le lemme d’inversion matricielle suivant est employé :
BC T CB
A−1 = B −1 + C T C ⇒ A = B − (5.30)
1 + CBC T
où 1 + CBC T est un scalaire. Par conséquent, la relation (5.27) peut s’écrire dans une forme plus
utile, donnant une loi d’ajustement sous la forme :
P (k − 1) φ (k) φT (k) P (k − 1)
P (k) = P (k − 1) − (5.31)
1 + φT (k) P (k − 1) φ (k)
Notons que dans (5.31), il y a une inversion scalaire (le terme 1 + φT (k) P (k − 1) φ (k) est un
scalaire) au lieu d’une inversion matricielle.
En utilisant (5.31), l’équation (5.29b) devient :
L’algorithme des moindres carrés récursifs s’exprime alors en utilisant les equations (5.32),
(5.29c), (5.29a) et (5.31), c’est-à-dire :
P (k − 1) φ (k)
K (k) =
1 + φT (k) P (k − 1) φ (k)
h i
ε (k) = y (k) − φT (k) θ̂ (k − 1)
La mise en œuvre de cet algorithme d’estimation nécessite encore la connaissance des valeurs
initiales θ̂(0) et P (0). Dans le cas où l’on ne dispose d’aucune information à priori, on peut adopter
une initialisation de la forme : θ̂(0) = 0 et P (0) = αI, avec α = 100 ou 1000 par exemple. Le facteur
α interprète en quelque sorte notre ignorance sur la valeur initiale du vecteur de paramètres.
Comme il est bien connu, l’estimation résultante minimise le critère quadratique suivant :
k
X
Jk (θ) = ε (i)2 (5.33)
i=1
Notons que ce critère apporte la même importance aux nouvelles mesures qu’aux anciennes. Ce qui
peut provoquer une lente convergence d’estimation, notamment pour les paramètres qui sont sus-
ceptibles de varier au cours du temps suite à l’apparition d’un défaut. Une solution de ce problème
est la modification de l’algorithme des moindres carrés récursifs en utilisant un facteur d’oubli
0<λ<1.
5.4.2 Méthode des moindres carrés récursifs avec facteur d’oubli constant (MCRFDC)
Dans ce cas, l’approche consiste à modifier le critère à minimiser. La nouvelle fonction du coût
s’écrit :
k
X
Jk (θ) = λk−i ε (i)2 (5.34)
i=1
La fonction du coût utilisée précédemment (voir équation (5.33)) avait λ = 1. Maintenant le facteur
d’oubli λ est un nombre un peu moins que 1 (par exemple 0.99 ou 0.95). Cela signifie que les mesures
obtenues précédemment sont préalablement actualisées avec l’augmentation de k. Plus la valeur de
λ est petite, plus l’information dans les données précédentes sera rapidement oubliée. Pour le critère
modifié (5.34), la méthode des moindres carrés récursifs avec facteur d’oubli peut s’écrire :
P (k − 1) φ (k)
K (k) =
λ + φT (k) P (k − 1) φ (k)
h i
ε (k) = y (k) − φT (k) θ̂ (k − 1)
(5.35)
θ̂ (k) = θ̂ (k − 1) + K (k) ε (k)
1
P (k − 1) − K (k) φT (k) P (k − 1)
P (k) =
λ
Le facteur d’oubli λ permet d’apporter plus d’importance aux mesures récentes qu’aux mesures
anciennes. Pour le choix de la valeur de λ, les expériences avec cet algorithme montrent qu’une
diminution de la valeur du facteur d’oubli mène à deux effets :
1. Les estimés des paramètres convergent vers leurs valeurs vraies plus rapidement, diminuant
ainsi, le retard d’alarme de défauts.
2. L’estimation dans ce cas devient plus sensible aux bruits. En effet, si λ 1 (beaucoup moins
de 1), les estimés peuvent même osciller autour de leurs valeurs réelles.
Une façon de résoudre ce problème est l’utilisation d’un facteur d’oubli variant dans le temps.
5.4.3 Algorithme des moindres carrés récursifs avec facteur d’oubli variable (MCRFDV)
Dans cette méthode, la constante λ dans (5.35) est remplacée par une variable λ(k). Un choix
approprié de sa valeur est donné par la règle d’ajustement suivante [1] :
où 0 < ∆ < 1 et Γ > 0 sont deux facteurs de réglage avec des valeurs constantes. En pratique,
afin d’avoir un oubli exponentiel continu et d’éviter au même temps le problème d’explosion de
covariance P (k), le paramètre ∆ est choisi d’être proche de 1, et le facteur Γ est conçu pour être
un grand nombre, disons 1000. Ainsi, afin d’éviter que le facteur d’oubli soit assez grand ou assez
petit (même négatif), une limite supérieure et une autre inférieure sont ajoutées :
λmin , si λ (k) < λmin
λ (k) = (5.37)
λ , si λ (k) > λ
max max
Généralement, le paramètre λmax est défini d’être égale à 1, et λmin est défini comme un petit
nombre, disons 0.2.
Cet algorithme est approprié pour le suivi des éventuelles variations paramétriques du système. En
effet, lorsque l’erreur de prédiction ε(k) accroı̂tre brusquement, λ(k) diminuera rapidement, afin
d’adapter le changement, en fournissant un grand oubli exponentiel. Quand ε(k) tend vers zéro, le
facteur d’oubli λ(k) s’approche de la constante ∆, afin d’assurer un oubli exponentiel faible mais
continu.
6.1 Introduction
Après la génération des résidus en utilisant l’une des méthodes étudiées dans les chapitres 3, 4
et 5, on arrive maintenant à l’étape d’analyse (ou d’évaluation) de ces résidus. Cette étape n’est
pas facile à réaliser, car il faut, dans un contexte soumis aux aléas de fonctionnement du système et
aux perturbations de l’environnement, décider d’une façon binaire et avec certitude s’il y a défaut
ou non. L’examen des résidus résultants doit conduire à décider si le système se trouve dans un
état normal ou défaillant. Nous sommes donc amenés à choisir parmi deux hypothèses :
• Hyp0 : Les résidus sont symptomatiques d’un état de fonctionnement normal du système.
• Hyp1 : Les résidus sont symptomatiques d’un état de fonctionnement défaillant du système.
– 52 –
Chapitre 6. Analyse des Résidus Module. Diagnostic des systèmes
Le but de cette partie est de trouver une méthode d’évaluation des résidus pour le cas déterministe,
qui déterminera si un défaut est présent. Les valeurs des résidus doivent refléter l’effet de défauts.
En effet, elles doivent être proches de zéro en l’absence de défaut, et différentes de zéro dans le
cas contraire. Les deux hypothèses avec leurs conditions associées sur le vecteur de résidus sont les
suivantes :
Afin d’évaluer les résidus, on utilise souvent une fonction de test ϕ (r (t)) (ϕ (r (k))), qui permet
de fournir une mesure (norme) de l’écart du résidu par rapport à zéro. Les fonctions tests les plus
utilisées sont :
• La valeur absolue :
ϕ (rj (t)) = |rj (t)| , cas continu
(6.2)
ϕ (rj (k)) = |rj (k)| , cas discret
La prochaine étape de l’évaluation des résidus consiste à déterminer une fonction de seuil Φ (t)
(Φ (k)) pour l’évaluation de la fonction de test ϕ (r (t)) (ϕ (r (k))). Cette fonction de seuil devrait
avoir les deux propriétés suivantes :
• Absence de défaut :
• Présence de défaut :
Dans le cas idéal (i.e. en absence des entrées et des perturbations), le seuil Φ (t) (Φ (k)) peut être
choisi constant et aussi proche de zéro, en tenant compte des valeurs pratiques des bruits dans les
résidus. Dans le cas général, il faut prendre en considération les effets des entrées, des perturbations
et des bruits de mesures. Avec l’une des fonctions tests mentionnées dans (6.2)-(6.4), le seuil doit
être déterminé de tel sorte que :
Dans ce cas, le seuil Φ (t) (Φ (k)) est une fonction des gains maximums des entrées de com-
mande βu = max ku (t)k (max ku (k)k) et des perturbations βd = max kd (t)k (max kd (k)k). Dans
la littérature, on parle souvent du seuil variant dans le temps. Le terme seuil adaptatif a été
également utilisé.
La procédure ci-dessus est testée pour le changement H0 à H1 . Lorsqu’un défaut est détecté,
ϕ (rj (t)) > Φj (t) (ϕ (rj (k)) > Φj (k)) ⇒ H (j) = H1 . Le passage à la normale se fait généralement
avec une hystérésis γ de façon que : ϕ (rj (t)) < γΦj (t) (ϕ (rj (k)) < γΦj (k)) ⇒ H (j) = H0 . Un
choix commun d’hystérésis est γ ⊂ [0.5, 0.8]. Il est évident que les tests de simulation ou dans
l’environnement réel, sont nécessaires avant de pouvoir faire un choix judicieux du seuil variable
1. Déterminer une fonction test ϕ (rj (t)) selon (6.2) jusqu’à (6.4),
Initialiser : H (j) = H0 ,
— Faire :
2. Si H (j) = H0 , ∀j :
Sinon
Fin Si
— Fin.
Algorithme 2 : Test face à un seuil variable discret.
Étant donné : une séquence du résidu rj (1) , ..., rj (k) dans les conditions normales de fonction-
nement,
1. Déterminer une fonction test ϕ (rj (k)) selon (6.2) jusqu’à (6.4),
Initialiser : H (j) = H0 ,
2. Si H (j) = H0 , ∀j :
Sinon
Fin Si
— Fin pour.
Dans le cas stochastique, on considère que les résidus sont des variables aléatoires suivant une
loi de probabilité p. De manière générale, un changement de fonctionnement va se traduit par une
modification de la loi de probabilité du résidu (par exemple : passage d’une distribution normale,
à une distribution exponentielle) ou par un changement des caractéristiques statiques de cette loi
(par exemple : variation de moyenne, de variance, ou les deux paramètres à la fois). Dans ce qui
suit, on s’intéresse au test de Page-Hinkley.
Cette méthode permet de tester la valeur moyenne du résidu sur une fenêtre de détection par
rapport à un seuil prédéfini. Une formulation du problème de détection de défaut est la suivante :
Nous voulons savoir à tout instant k, si le système est à l’état normal (hypothèse H0 ) ou non
(hypothèse H1 ). Dans ce cas, il faut étudier le résidu, c’est-à-dire la séquence r (1) , r (2) , ...., r (k)
de celui-ci. On peut donc écrire :
H0 : r (i) ∈ p0 ; 1≤i≤k
H1 : r (i) ∈ p0 ; 1 ≤ i ≤ k0 − 1 (6.6)
r (i) ∈ p1 ; k0 ≤ i ≤ k
où k0 représente l’instant de changement (i.e. l’instant où le système passe d’un fonctionnement
normal à un fonctionnement défaillant) supposé inconnu, p0 représente la densité de probabilité
des observations avant changement, et p1 celle après changement. Supposons que les échantillons
du résidu r(i) sont indépendants, donc, on obtient :
k
Y
p (r (1) , ..., r (k) |H0 ) = p0 (r (i))
i=1
(6.7)
0 −1
kY k
Y
p (r (1) , ..., r (k) |H1 ) = p0 (r (i)) + p1 (r (i))
i=1 i=k0
k
Y p1 (r (i))
Λ (r (1) , ..., r (k)) = (6.8)
p0 (r (i))
i=k0
Maintenant, si on considère le problème de saut de moyenne (à variance inchangée) d’un pro-
cessus gaussien, c.-à-d. p0 = N µ0 , σ 2 et p1 = N µ1 , σ 2 , les deux hypothèses H0 et H1 sont
— H0 : Le système est à l’état normal, le résidu présente une distribution gaussienne de variance
connue σ 2 et de moyenne µ0 (choisie le plus souvent avec une valeur nulle) jusqu’à l’instant
k.
— H1 : Le système est à l’état normal, le résidu présente une distribution gaussienne de variance
connue σ 2 et de moyenne µ0 jusqu’à l’instant k0 − 1, et le système est à l’état anormal, le
résidu présente une distribution gaussienne de variance σ 2 et d’une moyenne µ1 (µ1 6= µ0 ) de
l’instant k0 à k.
k i
Y 1 h 2 2
Λ (r (1) , ..., r (k)) = exp − 2 (r (i) − µ1 ) − (r (i) − µ0 )
2σ
i=k0
(6.9)
1 X k h i
= exp − 2 (r (i) − µ1 )2 − (r (i) − µ0 )2
2σ
i=k0
d’où la log-vraisemblance :
k
µ 1 − µ0 X µ1 + µ0
ln Λ (r (1) , ..., r (k)) = r (i) − (6.10)
σ2 2
i=k0
De façon à mettre l’accent sur le changement éventuel par rapport à la moyenne initiale µ0 , il
est commode d’introduire les notions suivantes :
p1 (r (i)) b υ
si (r (i)) = ln = r (i) − µ0 −
p0 (r (i)) σ 2
k k (6.11)
X b X υ
Sjk = si (r (i)) = r (i) − µ0 − = ln Λ (r (1) , ..., r (k))
σ 2
i=j i=j
υ
où υ = µ1 − µ0 est l’amplitude de changement (saut) de moyenne, b = σ est le rapport signal-sur-
bruit, si est le ième élément de la somme commutative Sjk (de l’instant j à k).
La détection de saut de moyenne a lieu lorsque :
L’instant d’occurrence de défaut k0 peut être estimée comme l’instant de temps k̂0 pour laquelle
S1k atteinte sa valeur minimum (ou lorsque cette fonction change sa pente du négative au positive).
Elle est formellement exprimée par :
1. une séquence du résidu rj (1) , ..., rj (k) de variance σ 2 avec une moyenne µ0 en état normal,
et une moyenne µ1 en état défaillant,
2. un seuil λ,
— Calculer :
1. le saut de moyenne υ = µ1 − µ0 ,
2. le rapport signal-sur-bruit b = συ ,
— Décider d’ :
1. accepter l’hypothèse H0 , si gk ≤ λ,
• fournir une estimation de l’instant d’occurrence du changement k̂0 défini par (6.14).
Fin pour.
Dans le cas où le saut de moyenne attendu υ est inconnu (en valeur algébrique), une possibilité
est :
U (0) = 0
k
X υm
U (k) = r (i) − µ0 − ; k≥1 (6.15)
2
i=1
T (0) = 0
k
X υm
T (k) = r (i) − µ0 + ; k≥1 (6.16)
2
i=1
Notons que le seuil λ̄ est directement lié à la notion de la probabilité de fausse alarme, et de
non détection. Une augmentation de λ̄ pour éviter les fausses alarmes, peut entraı̂ner un retard à
la détection.
La détection de défaut se produit lorsque les quantités U (k) − m (k) ou M (k) − T (k) sont
supérieures au seuil λ̄. L’instant d’occurrence de défaut k0 correspond au dernier minimum de U (k)
ou maximum de T (k). La valeur de λ̄ est à fixer par apprentissage. La valeur initiale peut être
calculée par l’expression [2] :
λ̄ = 2hσ/υm (6.17)
où h = 2 pour les distributions normales (gaussiennes) et σ est l’écart-type du signal de résidu.
L’algorithme de Page-Hinkley correspondant se donne de la manière suivante :
1. une séquence du résidu rj (1) , ..., rj (k) de variance σ 2 et de moyenne µ0 en état normal,
Initialiser :
2. U (0) = 0 et T (0) = 0,
— Calculer :
— Décider d’ :
ka = min k : U (k) − m (k) > λ̄ ∪ T (k) − M (k) > λ̄
Fin pour.
Série de TD N◦1
f (t)
1
x1 (t)
où x(t) = est le vecteur d’état du système, f (t) = f2 (t)
est le vecteur de défauts et y(t)
x2 (t)
f3 (t)
est la sortie mesurée.
1. En imposant les deux pôles : λ1 = λ2 = −5, construire l’observateur de Luenberger correspon-
dant.
2. Déterminer la fonction de transfert reliant le résidu r(s) = y(s) − ŷ(s) au vecteur de défauts
f (s) sous la forme :
r(s) = G1 (s) f1 (s) + G2 (s) f2 (s) + G3 (s) f3 (s)
– 61 –
Annexe A. Série de TD N◦ 1 Module. Diagnostic des systèmes
−8 −2
5
ẋ(t) = x(t) + u(t)
2 −1 0
1 0
y(t) = x(t) + f (t)
0 1
2. On suppose que le gain de l’observateur L est une matrice diagonale. Déduire le nombre des
éléments de L.
6. Donner la matrice de transfert Gf (s) reliant le vecteur d’erreurs ey (s) au vecteur de défauts
f (s).
8. En utilisant cette table de signatures, es-ce qu’on peut localiser l’origine des défauts ? Si non,
quelle choix doit avoir la matrice de structuration Q(s), afin d’obtenir une structure localisante ?
9. Déduire l’expression du vecteur de résidus r(s) en fonction du vecteur de défauts f (s), ainsi que
la table de signatures correspondante.
Exercice 3. Considérons un pendule simple comme illustré dans la Figure A.1. Où q est la position
angulaire du pendule par rapport à la verticale, et u représente le couple exercé sur ce système. En
appliquant le principe fondamental de la dynamique par rapport à la rotation, nous montrerons
que l’équation différentielle de mouvement est de la forme :
où m est la masse du pendule, J est le moment d’inertie par rapport à l’axe de rotation, ` est la
distance du centre de gravité à l’axe de rotation, et g est l’accélération due à la gravité.
1. Si on choisit les variables d’état tels que : x1 = q et x2 = q̇, donner le modèle d’état non linéaire
correspondant.
2. La fonction sin (z) peut être linéarisée au point 0 par z, et au point π/4 par z cos (π/4). Déduire
les deux modèles d’état linéarisés.
3. En utilisant le fait que y = `sin(q), donner les deux modèles d’état linéarisés sous la forme
matricielle. On donne : J = 0.25kgm2 , g = 9.8m/s2 et ` = 0.5m.
Série de TD N◦2
Exercice 1. En suivant la même démarche du cours (voir section 3.3), concevoir un observateur à
entrées inconnues pour le système suivant (équation de mesure perturbée) :
ẋ(t) = Ax(t) + Bu(t) + Fx f (t) + Dx d(t)
y(t) = Cx(t) + F f (t) + D d(t)
y y
0 −1 0 0 0 0 0 1
ẋ(t) = x(t) + 1 u(t) + 0 1 0 f (t) + 0 d(t)
−5 −1
50
0 2 −1 0 0 0 0 0
1 0 0 1 0 0
y(t) = x(t) + f (t)
0 1 0 0 0 0
0 0 1 0 0 1
– 64 –
Annexe B. Série de TD N◦ 2 Module. Diagnostic des systèmes
5. Calculer la matrice de transfert Gf (s) qui lie le vecteur d’erreurs ey (s) avec le vecteur de défauts
f (s).
7. Choisir une matrice de paramétrisation Q(s) permettant d’obtenir une structure localisante.
ẋ(t) = Ax(t) + Bu(t) + Fx f (t)
y(t) = Cx(t)
0 −1 0 1 1 0 0 0 1 0
où A = 100 −10 −1, B = 0, C = 0 1 0 et Fx = 1 0 0.
0 2 −1 0 0 0 1 0 0 1
A partir de cette représentation, on peut établir trois modèles équivalents comme suit :
ẋ(t) = Ax(t) + Bu(t) + F̄xi f¯i (t) + Fxi fi (t)
y(t) = Cx(t)
où fi (t), i = 1, ..., dim f (t) est le ième élément du vecteur de défauts f (t), et f¯i (t) est un vecteur
Pour chaqu’un des modèles précédents, on cherche à synthétiser un observateur à entrées inconnues,
qui permet d’éliminer l’effet de fi (t) (découplage), tout en maintenant l’effet de f¯i (t) (sensibilité).
2. Pour chaque modèle obtenu, vérifier la condition d’application de l’observateur à entrées incon-
nues correspondant.
4. Pour chaque observateur à entrées inconnues, on choisit les mêmes pôles désirés : λ1 = −5,
λ2 = −6 et λ3 = −7. Supposons que Mi sont des matrices de Hurwitz diagonales, trouver les
matrices Pi correspondants.
6. Pour chaque système, établir la matrice de transfert Gfi (s) reliant les vecteurs de résidus ri (s) =
eyi (s) aux vecteurs partiels de défauts f¯i (s). Donner l’expression de chaque vecteur de résidus.
7. Donner la table de signatures globale reliant tous les générateurs de résidus ri (t) avec le vecteur
de défauts f (t). Qu’est-ce que vous remarquez ?
Série de TD N◦3
où la matrice d’état A est une matrice d’identité de dimension 2, et w(k) est un bruit de système
avec une matrice de covariance Q = σx2 Id (Id est la matrice d’identité).
Le système est observé par l’équation de mesure suivante :
où x1 (k) et x2 (k) sont les composantes du vecteur d’état x(k), et v(k) est un bruit de mesure de
h iT
variance R = σy2 . Les conditions initiales sont : P (0 |0 ) = Id et x̂ (0 |0 ) = 0 0 .
1. Donner l’expression du gain de Kalman K(1) à l’instant 1 en fonction de σx2 et σy2 .
Exercice 2. On veut estimer deux positions cibles en utilisant une seule mesure. Ces positions
h iT
x1 (k) et x2 (k) forment le vecteur d’état : x(k) = x1 (k) x2 (k) avec un bruit de système égale
à zéro. La variable de mesure y(k) est affectée par un bruit v(k) avec une moyenne nulle et une
variance R. Sa forme se donne comme dans l’exercice précédent.
Afin de simplifier les calculs, nous considérons le cas d’une cible immobile :
x(k + 1) = x(k) = x
– 67 –
Annexe C. Série de TD N◦ 3 Module. Diagnostic des systèmes
h iT
Les conditions initiales sont : P (0 |0 ) = Id , R = 0.1, y = 2.9 (mesure) et x̂ (0 |0 ) = 0 0 .
Exercice 3. Étant donné une équation d’état de dimension 1 (l’état est un scalaire) :
x(k + 1) = x(k)
h iT
Cet état est observé par deux mesures y(k) = y1 (k) y2 (k) , qui sont infectées par un bruit
h iT
v(k) = v1 (k) v2 (k) . Le bruit de mesure est caractérisé par une matrice de covariance : R =
T
σ12 0
. Les conditions initiales sont : P (0 |0 ) = 1 et x̂ (0 |0 ) = 0. Définissons la quantité :
0 σ22
D = σ12 + σ22 + σ12 σ22 .
Série de TD N◦4
y1 (k) 1 2 1 0 0
f1 (k)
y2 (k) 1 0 x1 (k) 0 0 1
= +
f2 (k)
y3 (k) 1 1 x2 (k) 1 1 0
f (k)
3
y4 (k) 2 0 1 0 1
y1 (k) 1 0 8 1 0 0 0 0 f1 (k)
y2 (k) 1 1 1 x1 (k) 0 0 1 0 0 f2 (k)
y3 (k) = 1 1 x2 (k) + 0
0 0 0 0 1 f3 (k)
y4 (k) 1 8 1 x3 (k) 0 1 0 0 0 f4 (k)
y5 (k) 8 0 8 0 0 0 1 0 f5 (k)
– 69 –
Annexe D. Série de TD N◦ 4 Module. Diagnostic des systèmes
2. A partir de la matrice d’observation C, construire les deux matrices Cn et Cp−n , de telles sorte
que Cn est une matrice carrée inversible et Cp−n est constituée à partir les lignes restantes de
C.
Cn yn (k)
3. En absence de défaut, donner la matrice C̄ = et le vecteur ȳ(k) = . Qu’est-ce
Cp−n yp−n (k)
que vous remarquez ?
x1 (k + 1) 0.1 0 0 x1 (k) 0 −1
u1 (k)
x2 (k + 1) = 0 0.5 0 x2 (k) + 1 1
u (k)
2
x3 (k + 1)
0 0 0.1 x3 (k) 0 1
x1 (k)
y1 (k) 1 1 0
=
x2 (k)
y2 (k) 0 1 1
x3 (k)
A) Auto-redondance
1. Donner le rang n1 de la matrice d’observabilité réduite Ho1 (n1 − 1) par rapport au cap-
teur y1 .
2. Afin d’obtenir de la redondance, ajouter une ligne supplémentaire à cette matrice pour
avoir Ho1 (n1 ), et exprimer par la suite la relation (4.11) pour la mesure y1 .
4. Refaire la même chose (i.e. les questions 1,2 et 3) pour le deuxième capteur y2 .
6. Supposons que fy1 , fy2 , fu1 et fu2 sont, respectivement, les défauts sur le capteur y1 , le
capteur y2 , l’actionneur u1 et l’actionneur u2 . Établir la table de signatures des défauts.
Ces défauts sont-ils localisables ?
B) Inter-redondance
1. En tenant compte des rangs n1 et n2 des matrices d’observabilité réduites par rapport
aux capteurs y1 et y2 , donner toutes les relations indépendantes qui résultent à partir de
(4.14).
5. Écrire le vecteur de résidus global englobant toutes les relations de redondance. Donner
la table de signatures correspondante. Cette nouvelle structure est-elle localisante ?
Série de TD N◦5
Exercice 1. On veut estimer la valeur des paramètres d’un système par l’analyse de sa réponse
impulsionnelle en utilisant la méthode des moindres carrés simples puis récursifs.
Y (s) 1
Considérons un système linéaire dont sa fonction de transfert est donnée par : U (s) = s+a .
t 1 2 3 4 5
y(t) 0.70 0.43 0.32 0.19 0.15
1. Donner l’expression de la réponse impulsionnelle yth (t) de ce système. Est-elle linéaire par rap-
port au paramètre a ? Proposer une méthode de linéarisation.
2. Calculer la valeur estimée de ce paramètre (i.e. â) en utilisant la méthode des moindres carrés
simples.
4. Calculer la valeur du critère quadratique J (θ). Qu’est-ce que vous remarquez concernant la
qualité de l’estimation de ŷ ?
5. Maintenant, on utilise la méthode des moindres carrés récursifs pour la détermination de â. Don-
ner la dimension du régresseur φ, de la matrice d’observation Φ, et de la matrice P intervenant
dans le processus itératif.
7. Supposons que P (0) = 100I et θ̂(0) = 0, calculer les valeurs récursifs de â et déduire celles de ŷ.
– 72 –
Annexe E. Série de TD N◦ 5 Module. Diagnostic des systèmes
8. Déterminer la valeur du critère quadratique Jk (θ). Comparer les résultats obtenus avec ceux du
cas précédent. Qu’est-ce que vous remarquez ?
y (k) + a1 y (k − 1) = b1 u (k − 1)
k 0 1 2 3 4 5 6 7 8 9 10
u(k) 0 1 -1 1 1 1 -1 -1 0 0 0
y(k) 0 1.1 -0.2 0.1 0.9 1 0.1 -1.1 -0.8 -0.1 0
2. Évaluer la séquence du bruit e(k), sa valeur moyenne, ainsi que son écart-type.
3. Proposer un algorithme d’estimation par les moindres carrés récursifs permettant de calculer
â1 (k) et b̂1 (k) du système ci-dessus.
4. On suppose que P (0) = 1000I et θ̂(0) = 0, appliquer l’algorithme proposé afin de déterminer les
estimés de a1 et b1 . Conclure sur les résultats obtenus.
Exercice 3. Les résultats d’un essai obtenu par injection d’une SBPA à l’entrée d’un système réel
sont donnés par le tableau suivant :
k 0 1 2 3 4
u(k) -1 -1 1 -1 1
y(k) 0 -1.24 -0.32 1.50 -2.37
On veut identifier ce système par le modèle : y(k) = a y(k − 1) + b u(k − 1), et on désire déterminer
les paramètres de ce modèle par l’algorithme des moindres carrés récursifs avec facteur d’oubli.
1. Donner les équations des deux algorithmes des moindres carrés récursifs avec facteur d’oubli (i.e.
MCRFDC et MCRFDV).
[1] L. Wang et R. Langari, A variable forgetting factor RLS algorithm with application to
fuzzy time-varying systems identification , International Journal of Systems Science, vol. 27,
no. 2, p. 205–214, 1996.
[3] J. Chen et R. J. Patton, Robust model-based fault diagnosis for dynamic systems, vol. 3.
Springer Science & Business Media, 2012.
[5] S. X. Ding, Model-based fault diagnosis techniques : Design schemes, Algorithms, and Tools.
Springer, 2ème éd., 2013.
[6] S. Gentil, Supervision des procédés complexes. Hermès Sciences Publications, 2007.
[8] J.-C. Bertein et R. Ceschi, Discrete stochastic processes and optimal filtering. John Wiley
& Sons, 2ème éd., 2013.
[11] R. Isermann, Fault diagnosis of machines via parameter estimation and knowledge proces-
sing—tutorial paper , Automatica, vol. 29, no. 4, p. 815 – 835, 1993.
[12] R. Isermann, Model-based fault-detection and diagnosis – status and applications , Annual
Reviews in Control, vol. 29, no. 1, p. 71 – 85, 2005.
– 74 –
Références bibliographiques Module. Diagnostic des systèmes
[13] R. Isermann, Fault-Diagnosis Systems : An Introduction from Fault Detection to Fault Tole-
rance. Springer Berlin Heidelberg, 2006.
[18] Y. Chetouani, Use of cumulative sum (CUSUM) test for detecting abrrupt changes in
the process dynamics , International Journal of Reliability, Quality and Safety Engineering,
vol. 14, no. 01, p. 65–80, 2007.