Académique Documents
Professionnel Documents
Culture Documents
© LAVOISIER, 2002
LAVOISIER
11, rue Lavoisier
75008 Paris
Serveur web : www.hermes-science.com
ISBN 2-7462-0565-3
Catalogage Electre-Bibliographie
Richard, Jean-Pierre (sous la direction de)
Mathématiques pour les systèmes dynamiques
Paris, Hermès Science Publications, 2002
ISBN 2-7462-0565-3
RAMEAU : communication, théorie mathématique de la
systèmes dynamiques
DEWEY : 519 : Probabilités et mathématiques appliquées
sous la direction de
Jean-Pierre Richard
Mathématiques
pour les systèmes dynamiques
sous la direction de Jean-Pierre Richard
Wilfrid PERRUQUETTI
Emmanuel DELALEAU
Ecole centrale de Lille
Université Paris-Sud
Orsay Pierre PRIOURET
Université Pierre et Marie Curie
Vladimir B. KOLMANOVSKII
Paris
CINVESTAV
Mexico, Mexique Jean-Pierre RICHARD
Ecole centrale de Lille
Laurent LEFÈVRE
Ecole supérieure d’ingénieurs Frédéric ROTELLA
en systèmes industriels avancés Ecole nationale d’ingénieurs de
Valence Tarbes
$YDQWSURSRV
-HDQ3LHUUH 5 ,&+$5'
/DXUHQW / ()Ê95(
0RWLYDWLRQV
'LVWULEXWLRQV
0RWLYDWLRQV
%LEOLRJUDSKLH
)UpGpULF 5 27(//$
/¶DQQHDX GH FRQYROXWLRQ GHV VLJQDX[ j WHPSV FRQWLQX
%ULJLWWH '¶$1'5e$129(/
1RWLRQ GH YDULpWp GLIIpUHQWLHOOH
:LOIULG 3 (55848(77,
,QWURGXFWLRQ
ORFDOHV
LQILQLH
,QGH[
17
Avant-propos
Cet ouvrage fait suite au livre Algèbre et analyse pour l'automatique paru
dans cette même collection. Même si leurs dates de parution dièrent, ces deux
ouvrages ont été conçus simultanément et leur ensemble pourrait s'intituler
Outils mathématiques pour l'automatique .
La problématique fondamentale de l'automatique est celle de la conception,
de la mise en ÷uvre et de l'exploitation des moyens permettant à l'homme
de maîtriser le comportement de systèmes complexes, naturels ou articiels.
Science des systèmes1 , elle constitue donc une discipline transversale à de nom-
breux domaines d'application : elle intervient ainsi dans les sciences pour l'in-
génieur, celles de l'information et de la communication, celles du vivant...
Cependant, si les concepts sur lesquels elle se fonde (rétroaction, modéli-
sation, système dynamique, état, signal, optimalité...) présentent une ecacité
pratique indéniable, leur apprentissage comme leur développement nécessitent
d'accéder à un bagage d'outils mathématiques assez variés. Ceci constitue une
caractéristique de la discipline : il sut pour s'en convaincre d'interroger les
étudiants de licences et maîtrises IEEA, des écoles d'ingénieurs ou des forma-
tions permanentes. Tous lui accordent une place à part (en bien ou en mal !)
liée à son niveau de théorisation relativement exigeant.
La question se pose alors de dénir une boîte à outils mathématiques as-
sez riche et susamment compacte, à laquelle puissent faire appel les étudiants
en formation initiale, mais également les doctorants et chercheurs conrmés.
Notre but a donc été de réunir une variété susante d'outils mathématiques
impliqués dans le domaine de l'automatique, en un minimum de pages et à un
niveau susamment poussé. Le lecteur familier de ces disciplines (et de la
recherche en général) imaginera aisément la gageure d'un tel objectif ! Car il
est bien certain que de tels outils sont en constante évolution et que la seule
possibilité réaliste était d'en donner une photographie instantanée portant
sur des besoins relativement stabilisés.
Jean-Pierre Richard
35(0,Ê5( 3$57,(
0DWKpPDWLTXHVSRXUOHVVLJQDX[
HWV\VWqPHV
Chapitre 1
1.1. Motivations
Dès lors que cette réponse impulsionnelle est connue, il est possible de cal-
culer la réponse à un signal d'entrée quelconque u(t) sous la forme [ZAD 63] :
Z t
y(t) = h(t − τ )u(τ )dτ , (1.6)
0
ces développements n'ayant ici encore de sens que dans le cadre de la théorie
des distributions. L'intégrale (1.6) est appelée intégrale de Duhamel (ou encore
de Carson, ou de superposition ). Elle est un exemple de produit de convolution
entre deux fonctions et explique en grande partie l'intérêt des transformées pour
l'étude des systèmes linéaires stationnaires. En eet, comme nous le verrons par
la suite, au produit de convolution (1.6) dans le domaine temporel, correspond
un simple produit de fonctions dans le domaine fréquentiel (ou de Laplace).
2
Il s'agit de sommes dans le cas des séries de Fourier ou d'intégrales dans le cas des
transformées de Fourier et de Laplace.
Transformées intégrales et distributions 23
où g est une fonction à variation bornée dénie sur R+ , non décroissante (la
mesure dg peut donc comprendre des impulsions de Dirac), si et seulement si
l'opérateur N possède la propriété de mémoire évanescente [BOY 85].
Ainsi, les distributions apparaissent naturellement comme le cadre théorique
approprié pour l'étude des systèmes linéaires et des signaux associés. De plus,
la représentation de Duhamel nous montre que les transformées de Fourier et
de Laplace peuvent être un outil performant pour l'analyse de tels systèmes.
Nous verrons que ces deux approches (théorie des transformées et distributions)
sont aussi le cadre naturel d'étude des problèmes d'échantillonnage de signaux
continus, quelle que soit la nature du système dont ils sont issus.
24 Mathématiques pour les systèmes dynamiques
où ξη , hξ, ηiRn .
La transformée ub est ainsi bien dénie car :
−2iπξη
e = 1, ∀ξ, η ∈ Rn . (1.8)
La présence du facteur d'échelle 2π est optionnelle, mais simplie un certain
nombre de développements.
Dans la suite, nous utiliserons intensivement l'espace de Schwartz des fonc-
tions à décroissance rapide, notamment pour dénir les distributions, mais aussi
pour étendre la dénition de transformée de Fourier aux fonctions de carré in-
tégrable.
Dénition 2. Soit α , (α1 , . . . , αn ) ∈ Nn un multi-indice. Nous utiliserons
pour les multi-indices les conventions de notation suivantes :
|α| , α1 + . . . + αn , ∀α ∈ Nn ,
ξα , ξα1 . . . ξ n , ∀α ∈ N , ∀ξ ∈ R ,
1 αn n n
α1 αn
∂ ∂
∂ α = ∂1α1 . . . ∂nαn , α1 . . . αn , ∀α ∈ Nn , ∀ξ ∈ Rn .
∂ξ 1 ∂ξ n
Avec ces notations, l' espace de Schwartz sur Rn (espace des fonctions décli-
nantes) est déni par :
( )
S (Rn ) , u ∈ C ∞ (Rn ) : ∀α, β ∈ Nn , sup ξ α ∂ β u(ξ) < ∞ . (1.9)
ξ∈Rn
0.8
0.6
0.4
0.2
-1 0 1 2 3
Remarquons que nous avons pris quelques libertés par rapport à la dénition
de transformée de Fourier telle que nous l'avons formulée jusqu'ici. En eet,
la fonction u(t) = 1+ (t) n'est ni dans S (Rn ), ni dans aucun espace Lp (Rn ) ,
p ≥ 1, atteint par densité. Ainsi, la restriction à un spectre borné [−Ω, +Ω]
de la transformée ub (ω) n'a pas encore reçu de sens précis. Nous verrons plus
loin que, pour dénir correctement celle-ci, nous aurons besoin de la théorie
des distributions. Nous allons conclure cette section consacrée à la transformée
de Fourier par un résultat fréquemment utilisé : un théorème d'échantillonnage
pour les signaux à spectre borné.
Les signaux à spectre borné jouent un rôle particulier dans les applications
où le choix est souvent fait de ne travailler que sur une bande de fréquence
déterminée. Par dilatation, il est toujours possible de se ramener
aux signaux
à spectre inclus dans l'intervalle fondamental I , − 12 , + 21 (dont le complé-
mentaire dans R sera noté R \ I).
Dénition 6. L' espace des signaux L2 (R) à spectre borné est déni par :
b(ω) = 0 p.p. dans R \ I} .
BL2 , {u ∈ L2 (R) : u
Transformées intégrales et distributions 29
est une base hilbertienne de BL2 [WIL 95]. Dès lors, cette base hilbertienne
peut être utilisée pour décomposer toute fonction à spectre borné, ce qui est
formellement établi par le théorème suivant [WIL 95].
Théorème 3 (d'échantillonnage). ∀u, v ∈ BL2 , ∀k ∈ N, ∀t ≥ 0, on a :
(i) u(k) = P hu, τ k sinciL2 ;
(ii) u(t) = k∈N u(k) sinc (t − k), série convergeant uniformément, dans L2 ;
P
(iii) kuk22 = k∈N |u(k)|2 ;
P
(iv) hu, viL2 = k∈N u(k)v(k).
où s ∈ C est une variable complexe telle que l'intégrale converge. Dans la litté-
rature consacrée aux systèmes linéaires continus, la dénition plus restreinte qui
suit de la transformée de Laplace unilatère est la plus fréquemment rencontrée.
Dénition 8. Une fonction u dénie sur R+ est dite transformable au sens
de Laplace s'il existe un nombre β ∈ R pour lequel e−β· u(·) ∈ L1 (R+ ). Dans
ce cas, sa transformée de Laplace unilatère est dénie par :
Z +∞
L(u)(s) , u(t)e−st dt,
0
pour s ∈ C+
β , {s ∈ C : Re (s) ≥ β}.
Exemple 1. La fonction exponentielle u(t) = eλt , où λ ∈ C, est telle que
pour tout β ∈ R avec β > Re (λ), e−β· eλ· ∈ L1 (R+ ). On a donc, pour tout
s ∈ C+
Re(λ) , {s ∈ C : Re (s) > Re (λ)} :
Z +∞
1
L(u)(s) , eλt e−st dt = . (1.19)
0 s−λ
La fonction constante u(t) = 1+ (t) est telle que pour tout β > 0, e−β· 1+ (·) ∈
L1 (R+ ). On a donc, pour tout s ∈ C+ 0 :
Z +∞
1
L(u)(s) , 1+ (t)e−st dt = . (1.20)
0 s
et donc :
Z ∞
1
u(t) = L(u)(σ + iω)e+(σ+iω)t dω (1.23)
2π ∞
Z σ+i∞
1
= L(u)(s)e+st dω.
2πi σ−i∞
dk u X di u
k−1
L( )(s) = s k
L(u)(s) − (0)sk−1−i .
dtk i=0
dt i
où : Z ∞
2 1 2
kf kH2 , sup kf (σ + iω)kCn dω .
σ>0 2π ∞
L'espace H2 C+ 0 ainsi déni est un espace de Banach (il est complet, muni
de la norme k·kH2 , voir [KAW 72]). Cependant,
il est nécessaire de pouvoir dé-
nir un produit scalaire dans H2 C+ 0 pour établir une isométrie de cet espace
avec L2 (R+ ). Pour cela, la proposition
suivante [KAW 72] fait remarquer que
les fonctions de l'espace H2 C+ 0 peuvent être représentées par leurs valeurs
sur l'axe imaginaire.
Proposition 8. Pour chaque fonction f ∈ H2 C+0 , il existe une unique fonc-
tion fe ∈ L2 (−i∞, +i∞) telle que :
Z +∞
2
lim+
f (σ + iω) − fe(iω)
n dω = 0.
σ→0 −∞ C
Comme
corollaire immédiat de la proposition 8, nous pouvons déduire que
H2 C+
0 muni de ce produit scalaire est un espace de Hilbert. Il est maintenant
possible de formaliser l'observation faite à partir de l'équation (1.25). C'est
l'objet du théorème suivant.
Théorème 4 (de Paley-Wiener). La transformée de Laplace est une isomé-
trie entre L2 (R+ ) et H2 C+
0 . Ainsi notamment, pour tout u, v de L2 (R+ ),
+
on a : L(u), L(v) ∈ H2 C0 et hu, viL2 = hL(u), L(v)iH2 .
Cette isométrie est fort utile, par exemple pour évaluer le gain L2 d'un
système linéaire stationnaire représenté par une convolution. De même que
celle de Fourier, la transformée de Laplace possède des propriétés intéressantes
de transformation des opérateurs de translation et de dilatation (dénition 3).
Proposition 9. Soient u une fonction transformable au sens de Laplace, a ∈
R, λ ∈ R0 et s0 ∈ C. On a alors :
(i) L (τ a u) = e−sa L (u) ;
(ii) L (∂λ u) = |λ| ∂1/λ L (u) ;
(iii) L (e−s0 t u) = τ s0 L (u) .
La première de ces propriétés permet de déterminer la fonction de transfert
d'un système caractérisé par un retard de transmission. Elle est également fort
utile pour la conversion de données échantillonnées à intervalles de temps régu-
liers. Les propriétés (ii ) et (iii ) aectent en général le domaine de convergence.
Elles sont utilisées surtout pour élargir les dictionnaires de transformées.
Il est possible de déterminer les valeurs initiale et nale d'une fonction u(t),
dénie sur R+ et à valeur dans Rn , à partir de l'expression de sa transformée
de Laplace. En eet, on a d'après la propriété 5 :
du
sL(u)(s) = L( )(s) + u(0+ ). (1.27)
dt
Ceci suppose que u(t) soit diérentiable sur R+ et, en particulier, que :
alors que la fonction sin (ωt) 1+ (t) n'a pas de limite pour t → ∞.
1.4. Distributions
1.4.1. Motivations
Nous avons été confrontés au problème de la généralisation de la notion
de fonction en abordant la question de la réponse impulsionnelle d'un système
linéaire stationnaire. Celle-ci nécessite le plus souvent de considérer l'impulsion
de Dirac qui doit être vue plutôt comme une forme linéaire (faisant correspondre
à une fonction u(ξ) la valeur de cette fonction en ξ = 0) que comme une
fonction.
Nous avons également été confronté au problème de la dérivation de cer-
taines fonctions non diérentiables au sens usuel (fonctions non continues, par
exemple), notamment à travers le prisme de la multiplication de leurs transfor-
mées de Fourier par des puissances du type (−2iπξ)α , α ∈ Nn .
Les transformées de Fourier et de Laplace, quant à elles, posent des pro-
blèmes de convergence. Un grand nombre de fonctions intéressantes, telle la
fonction constante 1, ne possèdent pas de transformées de Fourier, au sens
usuel de la transformée d'une fonction.
espaces D (Rn ) et S (Rn ) que nous avons dénis plus haut. La première ques-
tion qui se pose alors est de dénir une notion de convergence raisonnable
sur ces espaces. Pour ce faire, nous avons recours à la notion de structure de
convergence.
Dénition 10. Soit X un espace vectoriel sur K (avec K = R ou C), χ ⊆ X N
un sous-espace vectoriel de l'ensemble des suites de points de X . Alors, χ dénit
une structure de convergence sur X s'il existe une application (appelée limite)
de χ dans X qui, à toute suite {un }n≥1 , fait correspondre un point u de X (on
notera {un }n≥1 7→ u), avec :
(i) {u, . . . , u, . . .} 7→ u ;
(ii) {un }n≥1 7→ u ⇒ ∀ sous-suite {unk }k≥1 7→ u ;
{un }n≥1 7→ u
(iii) {vn }n≥1 7→ v ⇒ {λ(un + vn )}n≥1 7→ λu + λv .
λ∈K
L'ensemble χ est donc le domaine de cette application limite , ou encore
l'ensemble des suites qui convergent (au sens particulier déni par la structure
de convergence).
Dénition 11 (Convergence faible). Soit X un espace de Hilbert, muni du
produit scalaire h·, ·iX à valeurs dans K (R ou C). Une suite {un }n≥1 ⊂ X
converge faiblement vers u, dans X , si :
Une suite de fonctions {un }n≥1 de K (Rn ) converge vers u dans K (Rn ) si :
(i) il existe un compact K ⊂ Rn telle que suppt (un ) ⊂ K, ∀n ≥ 1 ;
(ii) kun − uk∞ → 0.
D
On désigne la convergence de cette suite dans D (Rn ) par {un }n≥1 → u.
Dénition 15 (Convergence ponctuelle dans X 0). Soit X un espace vec-
toriel sur K, à structure de convergence. On dénit X 0 , l' espace dual de X ,
par :
X 0 , {f : X → K : f est linéaire et continue} , (1.33)
et on désigne alors la valeur de f en u par (f, u). On dit qu'une suite de
fonctions {fn }n≥1 de X 0 converge vers f dans X 0 lorsque :
∀u ∈ X : (fn , u) → (f, u) . (1.34)
Il s'agit donc de la convergence ponctuelle dans X 0 .
D
Il est intéressant de constater que la convergence {un }n≥1 → u est l'une
des plus exigentes rencontrées en analyse et qu'en conséquence, la convergence
associée dans l'espace dual D0 (convergence ponctuelle dans D0 ) est l'une des
plus faibles rencontrées en analyse.
La construction d'espaces de distributions consiste précisément à prendre
l'espace dual X 0 d'espaces de fonctions X susamment régulières, munis
d'une structure de convergence. On parlera d'espace des distributions D0 (Rn ),
d'espace des distributions tempérées S 0 (Rn ) et d'espace des mesures de Radon
K0 (Rn ). Ensuite, les applications linéaires continues dans X sont transposées
de manière à dénir les applications linéaires continues dans X 0 . Cette construc-
tion assez simple est susante pour répondre aux motivations que nous avons
posées à la section précédente. Rappelons tout d'abord la dénition d'applica-
tion linéaire continue.
Dénition 16 (Application linéaire continue). Soient X et Y deux espaces
vectoriels munis chacun d'une structure de convergence sur K et L : X → Y
une application linéaire. L'application L est continue si :
X Y
∀ {un }n≥1 ⊂ X : un → 0 ⇒ Lun → 0.
(1.35)
X
un → 0 ⇔ lim kun kX = 0,
n→∞
Y
(L, un ) → 0 ⇔ lim kLun kX = 0,
n→∞
C'est le dual de l'espace de Schwartz. Des formes à valeurs complexes ont été
choisies pour plus de généralité.
4 La simplication provient du caractère isométrique de la transformée de Fourier dans cet
Les fonctions de OM (Rn ) et toutes leurs dérivées présentent donc une crois-
sance polynomiale à l'inni, ce qui permet de capturer de nombreux exemples
intéressants.
Transformées intégrales et distributions 41
Exemple 3. Les fonctions sin(t) et cos(t) sont des fonctions de OM (R) car,
comme |∂ α sin(t)| ≤ 1, ∀α ∈ N, la condition de la dénition 19 est vériée pour
c = 1 et m = 0.
Exemple 4. Les polynômes de degré k de la forme :
X
g(ξ) = c α ξ α , c α ∈ Rn , (1.38)
|α|≤k
α∈Nn
où ϕ est une fonction susamment régulière pour que les intégrales dénies plus
bas aient un sens (c'est le cas notamment si ϕ ∈ S (Rn )). Il est certain qu'il
s'agit d'une famille de distributions pour lesquelles les dénitions d'opérateurs
transposés doivent être valables. On a pour les distributions de cette famille :
1. Pour a ∈ Rn :
Z
(fϕ , τ a u) , ϕ(ξ)u(ξ − a)dξ (1.44)
Rn
Z
= ϕ(ξ + a)u(ξ)dξ
ZR
n
= (τ −a ϕ) (ξ)u(ξ)dξ.
Rn
2. Pour λ ∈ R\{0} :
Z
ξ
(fϕ , ∂λ u) , ϕ(ξ)u( )dξ (1.45)
Rn λ
Z
n
= |λ| ϕ(λξ)u(ξ)dξ
Rn
Z
n
= |λ| ∂ λ1 ϕ (ξ)u(ξ)dξ.
Rn
3. Pour γ ∈ Nn :
Z
(fϕ , ∂ u) ,
γ
ϕ(ξ)∂ γ u(ξ)dξ (1.46)
Rn
Z
|γ|
= (−1) ∂ γ ϕ(ξ)u(ξ)dξ
Rn
Z
|γ|
= (−1) ∂ γ ϕ (ξ)u(ξ)dξ.
Rn
Transformées intégrales et distributions 43
4. Pour g ∈ OM (Rn ) :
Z
(fϕ , Λg u) , ϕ(ξ)g(ξ)u(ξ)dξ (1.47)
ZR
n
= (Λg ϕ) (ξ)u(ξ)dξ.
Rn
5. Pour v ∈ S (Rn ) :
Z Z
(fϕ , u ∗ v) , ϕ(ξ) u(ξ − η)v(η)dη dξ (1.48)
Rn
ZR
n
Z
= ϕ(ξ) u(−θ)v(ξ + θ)dθ dξ
Rn Rn
Z Z
= v(ξ + θ)ϕ(ξ)dξ u(−θ)dθ
Rn Rn
Z Z
= v(ξ − θ)ϕ(ξ)dξ u(+θ)dθ
ZR Rn
n
= (∂−1 v ∗ ϕ) (ξ)u(ξ)dξ.
Rn
= (F ϕ) (η)u(η)dη.
Rn
A l'aide des calculs qui précèdent, nous pouvons donc proposer les transpo-
sitions des opérateurs concernés dans S 0 (Rn ).
Dénition 20. Par transposition, on dénit, pour tout f ∈ S 0 (Rn ) et pour
tout u ∈ S (Rn ), les opérateurs :
(i) τ a , a ∈ Rn tel que (τ a f, u) = (f, τ −a u),
(ii) ∂λ , λ ∈ R\{0} tel que (∂λ f, u) = |λ|n f, ∂1/λ u ,
(iii) ∂ γ , γ ∈ Nn tel que (∂ γ f, u) = (−1)|γ| (f, ∂ γ u),
(iv) Λg , g ∈ OM (Rn ) tel que (Λg f, u) = (f, Λg u),
(v) (· ∗ v), v ∈ S (Rn ) tel que (f ∗ v, u) = (f, (∂−1 v) ∗ u),
(vi) F , tel que (Ff, u) = (f, F u).
Ce sont des opérateurs linéaires et continus de S 0 (Rn ) dans lui-même.
On remarquera en particulier que toute distribution tempérée f possède une
transformée de Fourier et est inniment diérentiable au sens des distributions.
Il s'agit là bien-sûr d'un avantage décisif de ce cadre théorique pour l'analyse
fréquentielle et l'étude du comportement des systèmes linéaires dans le domaine
temporel, ou dans le domaine des transformées de Fourier.
44 Mathématiques pour les systèmes dynamiques
Nous avons déni plus haut des distributions tempérées fϕ par des intégrales
sur Rn (voir (1.43)), à l'aide de fonctions ϕ susamment régulières . Ce
caractère susamment régulier est précisé par la proposition suivante, dont
une preuve se trouve par exemple dans [SCH 66].
Proposition 14. S'il existe 1 ≤ p < ∞ et 0 ≤ m entiers tels que :
−m
ϕ(ξ) 1 + kξk2Rn ∈ Lp (Rn ) ,
Proposition
R 18. En notant 1 la distribution dénie par 1 : S (Rn ) → C :
u 7→ Rn u(ξ)dξ, on obtient :
(i) bδ = 1 et b1 = δ,
(ii) F (∂ α δ) = (−2iπη)α et F ((2iπξ) ) = (−1) ∂ δ , pour
α |α| α
α ∈ Nn ,
(iii) F (τ a δ) = e −2iπaη
et F e +2iπaξ
= τ a δ , pour a ∈ R .
n
R
Démonstration : il sut de remarquer que (bδ, u) = (δ, ub) = ub(0) = Rn
u(ξ)dξ,
puis d'appliquer les résultat de la proposition 17.
On peut notamment calculer à l'aide de cette propriété la transformée de
Fourier d'un développement polynomial :
X X cα
F
cα ξ α
= (−1)|α| ∂ α δ, (1.52)
(2iπ)|α|
|α|≥1 |α|≥1
α∈Nn α∈Nn
46 Mathématiques pour les systèmes dynamiques
transformée de Fourier. On a :
!
X X X
F τ kδ = τ kδ = e2iπkη , η ∈ R. (1.55)
k∈N k∈N k∈N
La série est donc convergente et elle dénit une forme linéaire et continue
dans C. Il s'agit donc bien d'une distribution tempérée. Par continuité de la
transformation de Fourier et par la proposition précédente, il vient :
!
X X X
F τ kδ = F (τ k δ) = e2iπkη . (1.57)
k∈Z k∈Z k∈Z
Enn, pour conclure, nous avons recours à la formule de Poisson. Elle est ap-
plicable pour u dans S (Rn ) et montre que :
! ! ! !
X X X
τ k δ, u = b
τ k δ, u , F τ kδ ,u . (1.58)
k∈Z k∈Z k∈Z
Transformées intégrales et distributions 47
est, lui, une série convergente (convergence absolue et uniforme). Il peut être
utilisé pour approcher le peigne de Dirac. En eet, on a la convergence suivante
au sens des distributions :
S0
X
lim− Pr (ξ) = e2iπkξ . (1.60)
r→1
k∈Z
2.5
1.5
-2 -1 0 1 2
et de la norme associée :
q
kukHm , hu, uiHm . (1.64)
fb(η)
b (η) =
u 2 ∈ S 0 (Rn ) , (1.72)
4π 2 |η| + λ
Transformées intégrales et distributions 51
−1
car 4π2 |η|2 + λ ∈ OM (Rn ). On déduit de la nature bijective de la trans-
formée de Fourier que :
!
−1 fb(η)
u (ξ) = F 2 ∈ S 0 (Rn ) . (1.73)
4π 2 |η| + λ
Une remarque importante et non triviale sur ce problème est que la condition
u ∈ S 0 (Rn ) constitue une condition aux limites. En eet, dans S 0 (Rn ), l'unique
solution au problème homogène −∆u + λu = 0 est u = 0. Mais les fonctions :
√
ui (ξ) = e± λξi
, (1.74)
pour i = 1, . . . , n , ainsi que leurs combinaisons linéaires, sont solutions du pro-
blème homogène. Les fonctions ui dénissent bien des distributions de D0 (Rn )
car les fonctions de D (Rn ) ont un support compact. Mais elles ne dénissent
pas des distributions dans S 0 (Rn ). D'ailleurs, elles ne vérient pas la condition
ui (ξ)(1 + kξk2Rn )−m ∈ Lp (Rn ) de la proposition 14. Ainsi, le problème (1.70)
admet-il une innité de solution dans D0 (Rn ), mais une seule dans S 0 (Rn ).
Ayant montré l'existence et l'unicité de la solution du problème diérentiel
(1.70) dans D0 (Rn ) et ayant construit cette solution (voir équation (1.73)), il
est naturel de s'interroger sur sa régularité. En eet, une solution au sens des
distributions est un résultat élégant, mais une fonction susamment régulière
serait une solution plus praticable du problème diérentiel. Avec la caracté-
risation des espaces de Sobolev formulée à la section précédente, nous disposons
d'un outil remarquablement simple et puissant pour aborder ce problème.
Proposition 21. Le problème diérentiel :
−∆u + λu = f,
λ > 0, f ∈ Hs (Rn ) ,
admet une seule solution u ∈ S 0 (Rn ), donnée par :
!
fb(η)
u (ξ) = F −1 2 .
4π 2 |η| + λ
De plus, u ∈ Hs+2 (Rn ).
Démonstration : on a :
2
s+2 1 + |η| s2
b
1 + |η|2 1 + |η|2
2
|b
u (η)| = f (η) . (1.75)
4π 2 |η|2 + λ
s2 −1
Or 1 + |η|2 fb(η) ∈ L2 car f ∈ Hs et 1 + |η|2 4π2 |η|2 + λ est bor-
née sur Rn . Dès lors, le membre de gauche de (1.75) est dans L2 , ce qui conclut
la démonstration.
52 Mathématiques pour les systèmes dynamiques
La démarche que nous avons suivie pour résoudre le problème (1.70) peut
être généralisée au cas des équations elliptiques.
Dénition 23. Pour α ∈ Nn , on dénit l'opérateur diérentiel Dα de S 0 (Rn )
dans lui-même par :
−|α|
Dα = (2iπ) ∂α.
A tout polynôme d'ordre p ∈ N à coecients complexes dα ∈ Cn de la forme :
X
P (η) , dα η α ,
|α|≤p
α∈Nn
L'opérateur diérentiel P (D) est alors dit elliptique si son symbole principal
Pp (η) ne s'annule qu'en η = 0.
Les dénitions de ces opérateurs diérentiels sont posées de manière à
simplier l'écriture des transformées de Fourier. On a en eet, pour tout
u ∈ S 0 (Rn ) :
d
D b(η),
αu = ηαu (1.76)
P\
(D)u = P (η)b
u(η). (1.77)
correspond au symbole :
2
P (η) = (2iπ) η 21 + η 22 + · · · + η 2n (1.79)
2
= −4π2 |η| .
et correspond au symbole :
P (η) = (2iπ) (η 1 + iη 2 ) (1.81)
= (2π) (iη 1 − η 2 ) .
1.5. Bibliographie
[BOY 85] Boyd S., Chua L., Fading memory and the problem of approximating
nonlinear operators with Volterra series, IEEE Trans. on Circuits and
Systems, vol. 32, n 11, p. 1150-1161, 1985.
◦
[DOE 74] Doetsch G., Introduction to the theory and application of Laplace trans-
form, Springer Verlag, 1974.
[KAW 72] Kawata T., Fourier analysis in probability theory, Academic Press, 1972.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[SCH 93] Schwartz L., Analyse - tome 4 : théorie de la mesure et applications,
Hermann, 1993.
[SCH 66] Schwartz L., Théorie des distributions, Hermann, 1966.
[WIL 95] Willem M., Analyse harmonique réelle, Hermann, 1995.
[ZAD 63] Zadeh L., Desoer C., Linear system theory, McGraw-Hill, 1963.
Chapitre 2
que nous remplacerons par a(t) = b(t) lorsqu'aucune confusion n'est à craindre,
car en toute rigueur cette égalité n'est valable qu'à l'instant t. La fonction
constante particulière h = {1} présentera pour nous une certaine importance,
la notation h rappelant la fonction de Heaviside.
Calcul opérationnel de Mikusi«ski 57
af = b,
On peut munir cet ensemble, dont les éléments seront appelés opérateurs,
fonctions généralisées [ERD 71] ou hyperfonctions [YOS 84], des lois :
addition : ab + dc = ad+bc
ac ;
multiplication par un scalaire α : α ab = αb
a ;
produit (de convolution) : ab dc = ac
bd
;
Calcul opérationnel de Mikusi«ski 59
qui lui confèrent une structure d'algèbre dont l'élement neutre est 0 = {0} b et
l'élément unité, u = bb , avec dans les deux cas b 6= 0. On peut alors poser :
a −1 b
, (si ab 6= 0). (2.7)
b a
{α}
[α] = .
h
Théorème 4. ∀α, β ∈ C, ∀f ∈ O :
[α] + [β] = [α + β] ;
[α] [β] = [αβ] ; (2.8)
[α] f = {αf (t)} .
h2 f = h,
X
n−1
pn f = f (n) + f (i) (0)pn−i−1 ,
i=0
où f (n) = f (n) (t) et, en toute rigueur, f (i) (0) désigne f (i) (0) .
En présence d'une discontinuité de première espèce, le théorème précédent
doit légèrement être modié. Soit f une fonction présentant une discontinuité
de première espèce en x et soit s(x) le saut en cette discontinuité :
on a alors :
pf = f (1) + [f (0)] + s(x)phx ,
où hx représente l'échelon de Heaviside retardé de x (voir paragraphe 2.3.1).
A partir de l'opérateur hα d'intégration fractionnaire d'ordre α, déni pré-
cédemment, on peut construire l'opérateur de dérivation fractionnaire, pα ,
Re(α) > 0, comme la solution de l'équation de convolution :
hn+α f = hn ,
Nous nous limitons ici à des fonctions d'opérateurs dépendant d'une seule
variable réelle x ∈ I ⊂ R. Une fonction d'opérateur, ou fonction opération-
nelle, f (x), est une application qui à tout x de I fait correspondre l'opé-
rateur f (x), c'est-à-dire qu'il existe deux fonctions a(x) et b(x) de C telles
que a(x)f (x) = b(x). Lorsque f (x) est elle-même dans C, on pourra noter
f (x) = {f (x, t)} . Cette notion est particulièrement importante lorsque l'on
utilise le calcul opérationnel dans le traitement des équations aux dérivées par-
tielles (paragraphe 2.5.4).
On peut dénir une notion de convergence sur les fonctions d'opérateurs,
qui bien-sûr ici ne pourra être qu'une convergence au sens faible vis-à-vis de
la convergence uniforme dans C, puisque f (x) ne peut être dénie que par
l'intermédiaire du produit de convolution. Par exemple, en considérant α réel,
nous avons déjà rencontré l'opérateur d'intégration hα , déni pour α > 0 par
(2.10) et qui a été étendu à α < 0 par :
hn+α
∀α ∈ R, n ∈ N, n + α > 0, hα = . (2.11)
hn
h0 = p0 = [1] . (2.12)
De façon plus générale, on peut montrer, par exemple par récurrence, que
l'on a pour tout n entier :
tn−1 eαt 1
= , (2.23)
(n − 1)! (p − α)n
et on peut ainsi associer un signal à tout processus générateur qui s'écrit sous
la forme d'une fraction rationelle en p (ou h).
P
Réciproquement, on peut utiliser le résultat suivant : si la série i≥0 xi z i
P
converge pour une valeur z0 de z, alors la série i≥0 xi hi dénit l'opérateur :
X
ti−1
[x0 ] + xi . (2.26)
(i − 1)!
i≥1
X
k−1
k = 1, . . . , n, y (k) = pk y − yi pk−i−1 ,
i=0
Pour obtenir l'expression analytique {y(t)} de cette solution, deux cas sont
à envisager :
soit on connaît le processus générateur associé à f, alors on obtient le
processus générateur de y qu'il sut d'exprimer ;
soit on part de f (t) et, par décomposition en éléments simples de D(p) :
X
r X
mi
dij X
r
D(p) = , mi = n,
i=0 j=1
(p − αi )j i=0
on obtient :
XX r m Z t
f i
τ j−1 eαi τ
= dij f (t − τ ) dτ . (2.29)
D(p) i=0 j=1 0 (j − 1)!
Exemple 1. Soit l'équation diérentielle :
∀t ≥ 0, y (2) (t) − 4y(t) = e2t , avec y(0) = 1, y (1) (0) = 1/4. (2.30)
Comme e2t = (p − 2)−1 , on peut écrire :
1 1
(p2 − 4)y = + + p,
p−2 4
1 1 p
y= 2
+ 2 ,
4 (p − 2) (p − 4)
Notons au passage2
que l'on ne peut ici utiliser le formalisme de Laplace du fait
de la fonction et . L'utilisation du calcul opérationnel conduit à :
1 hn 2
o i
y= (2t − 1)et + 2
p−1
Z t n o
2 2
= e(t−x) (2x − 1)ex dx + 2et = et + et . (2.33)
0
et de deuxième espèce :
Z t
∀t ≥ 0, y(t) + h(t − x)y(x)dx = f (t), (2.36)
0
qui sont des cas particuliers d'équations intégrales de Volterra. Le calcul opé-
rationnel permet une écriture sous les formes respectives ky = f (pour (2.35))
et (1 + k)y = f (pour (2.36)).
Cela conduit aux solutions : y = fk (pour (2.35)) et y = 1+k
f
(pour (2.36)),
qui peuvent être des fonctions ou des opérateurs, mais qui dans tous les cas
sont uniques.
Exemple 4. Soit l'équation intégrale :
Z t
∀t ≥ 0, sin(t − x)y(x)dx = αt + t2 , (2.37)
0
pour laquelle on utilise {sin t} = 1
p2 +1 et αt + t2 = αh2 + 2h3 . On obtient :
y = (p2 + 1)(αh2 + 2h3 ) = α + 2 + αt + t2 . (2.38)
Si α = 0, y est dans C, par contre si α 6= 0, y est un opérateur.
Calcul opérationnel de Mikusi«ski 69
la solution devient :
X
y(x) = e−((2k+1)L−x)p b − e−((2k+1)L+x)p b,
k≥0
soit :
X
y(x, t) = (b(t − (2k + 1)L + x) + b(t − (2k + 1)L − x)) . (2.42)
k≥0
Notons que ceci est toujours possible puisque les entrées et sorties d'un
système, en tant que signaux, sont nécéssairement solutions d'une équation de
convolution. D'autre part, nous avons pris le parti de les exprimer à l'aide de
l'opérateur p, mais on aurait tout aussi bien pu choisir h.
On obtient alors :
Ns (p) Ne (p)
=σ , (2.44)
Ds (p) De (p)
qui conduit, en posant N (p) = Ns (p)De (p) et D(p) = Ne (p)Ds (p), à l'équation
de convolution N (p) = D(p)σ, correspondant à l'opérateur de transfert du
système :
N (p)
σ= .
D(p)
que l'on peut représenter par le schéma fonctionnel suivant (où les parenthèses
sont omises mais elles devraient y être en toute rigueur) :
D(p)y = N (p)u.
où ∆(p) est un polynôme dont les zéros sont à partie réelle négative.
N (p)
s= e,
D(p)
qui peut être traité comme dans le cas des équations diérentielles. On peut
cependant distinguer plusieurs cas particulièrement importants.
Calcul opérationnel de Mikusi«ski 73
Transmittance isochrone
Gain statique
où M = [mij ] et les mij = ndijij sont les opérateurs de transferts élémentaires dé-
nis par les n2 relations : dij si = nij ej , (i, j) ∈ {1, . . . , n}2 . Nous ne détaillerons
pas non plus cet aspect du calcul opérationnel, mais comme les numérateurs
et dénominateurs de M appartiennent à l'anneau C, on peut appliquer à M
toutes les opérations utilisables sur les matrices rationnelles [RIC 01, ROT 95].
On peut donc construire, par des opérations algébriques, des factorisations
droite et gauche de l'opérateur matriciel M :
factorisation droite : M = Nd Dd−1 ;
factorisation gauche : M = Dg−1 Ng ;
où Nd , Ng , Dd , Dg sont dans On×n . Ces factorisations sont irréductibles si
(Nd , Dd ) et (Ng , Dg ) sont premières entre elles.
Ces factorisations correspondent en fait aux relations de convolution :
Dg s = Ng e, pour la factorisation gauche ;
s = Nd z, Dd z = e, pour la factorisation droite.
la convolution r0 a, on obtient bien sûr a, ce qui implique que l'on peut poser
r0 = [1].
En prenant la solution de l'équation de convolution :
r2 f = r, (2.52)
I 2 δ = I, (2.55)
De même que dans le cas des signaux à temps continu, le calcul opérationnel
de Mikusi«ski constitue une base rigoureuse permettant l'emploi des propriétés
algébriques pour la commande des systèmes linéaires à temps discret [KU 79,
KU 91].
2.8. Bibliographie
[BLO 83] Blomberg H., Ylinen R., Algebraic theory for multivariable linear sys-
tems, Academic Press, 1983.
[DAU 88] Dautray R., Lions J.L., Analyse mathématique et calcul numérique, t.
6, Masson, 1988.
[DES 75] Desoer C.A., Vidyasagar M., Feedback systems : input-output proper-
ties, Academic Press, 1975.
[DES 80] Desoer C.A., Liu R.W., Murray J., Saeks R., Feedback system
design : the fractional representation approach to analysis and synthesis,
IEEE Trans. on Aut. Control, vol. 25, n◦ 3, p. 399-412, 1980.
[ERD 71] Erdélyi A., Calcul opérationnel et fonctions généralisées, Dunod, 1971
(trad. de Operational calculus and generalized functions, Holt, Rinehard
and Winston, 1962).
[FLI 97] Fliess M., Mounier H., Rouchon P., Rudolph, J., Systèmes linéaires
sur les opérateurs de Mikusi«ski et commande d'une poutre exible,
ESAIM Proc., vol. 2, p. 183-193, 1997.
[FLI 99] Fliess M., Mounier H., Tracking control and π -freeness of innite di-
mensional linear systems, in Dynamical systems, control, coding and com-
puter vision, Picci G., Gilliam D.S., Eds, p. 45-68, Birkhaüser, 1999.
[GOH 70] Gohberg M.G., Kren, Theory and applications of Volterra operators
in Hilbert space, American Mathematical Society, 1970.
[HEA 93] Heaviside O., Electromagnetic theory, I-III, London, 1893.
[HLA 69] Hladik J., La transformation de Laplace, Masson, 1969.
[JUR 64] Jury E.I., Theory and application of the z -transform method, John Wiley,
1964.
[KAI 80] Kailath, Linear systems, Prentice Hall, 1980.
78 Mathématiques pour les systèmes dynamiques
[KU 79] Ku£era V., Discrete linear control : a polynomial approach, Wiley Inter-
sciences, 1979.
[KU 91] Ku£era V., Analysis and design of discrete linear control systems, Pren-
tice Hall, 1991.
[LAC 93] Lachand-Robert T., Analyse harmonique, distributions, convolution,
Techniques de l'ingénieur, T. AF1, A142, Dunod, 1993.
[MIK 59] Mikusi«ski J., Operational calculus, Pergamon Press, 1959.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[ROT 96] Rotella F., Zambettakis I., Mikusi«ski operational calculus for distri-
buted parameter systems, IEEE-SMC Conf. CESA'96, p. 975-979, 1996.
[ROT 95] Rotella F., Borne P., Théorie et pratique du calcul matriciel, Technip,
1995.
[SCH 89] Schetzen M., The Volterra and Wiener theories of nonlinear systems,
Krieger Publisihng Company, 1989.
[SPI 78] Spiegel M.R., Formules et tables de mathématiques, Mac Graw-Hill,
1978.
[WIL 86] Willems J.C., From time series to linear systems, Automatica, part I :
vol. 22, n◦ 5, p. 560-580, 1986, part II : vol. 22, n◦ 6, p. 675-694, 1986,
part III, vol. 23, n◦ 1, p. 87-115, 1987.
[YOS 84] Yosida K., Operational calculus : a theory of hyperfunctions, Springer
Verlag, 1984.
[ZWI 98] Zwillinger D., Handbook of dierential equations, Academic Press, 1998.
Chapitre 3
1. Ω ∈ F ,
2. si A ∈ F , alors Ac ∈ F , où Ac est le complémentaire de A, Ac , Ω \ A =
{x ∈ Ω, x 6∈ A} (stabilité par passage au complémentaire),
S
3. si (An , n ∈ N) est une suite de parties de Ω, alors, n∈N An ∈ F (stabilité
par réunion dénombrable).
Un élément d'une tribu s'appelle un événement (en théorie de la mesure, de
tels éléments sont appelés ensembles mesurables).
Deux événements A et B sont dits incompatibles si A ∩ B = ∅. L'ensemble
vide ∅ est appelé l'événement impossible . A l'inverse, Ω est l'événement certain.
Le couple (Ω, F), constitué d'un ensemble d'épreuves et d'une tribu d'événe-
ments, est un espace probabilisable. L'ensemble P(Ω) des parties de Ω est une
tribu (tribu discrète ) sur Ω qui contient n'importe quelle tribu F de Ω. De
même, l'ensemble {∅, Ω} est aussi une tribu (tribu grossière ) contenue cette
fois dans toutes les tribus dénies sur Ω.
Remarquons que l'intersection d'une famille quelconque de tribus est une
tribu et que toute classe de parties A de Ω est contenue dans la tribu discrète
P(Ω). Cela nous permet de dénir la notion suivante.
3.1.2. Probabilité
Dénition 4 (Probabilité). On appelle probabilité sur (Ω, F ), une applica-
tion P : F → [0, 1], qui vérie les propriétés suivantes :
1. P(Ω) = 1,
2. (σ-additivité) si (An , n ∈ N) est une suite d'éléments de F deux à deux
disjoints (c'est-à-dire : Ai ∩ Aj = ∅ pour i 6= j ), alors :
! ∞
[ X
P Ai = P(Ai ). (3.1)
n∈N i=0
dire : lim , lim ou, pour des ensembles : lim , lim . La notation & est
xn %x xn → x An %A An → A
xn ≤ x An ⊆ A
dénie similairement, avec xn ≥ x ou An ⊇ A.
82 Mathématiques pour les systèmes dynamiques
On vérie que λ0 est une fonction positive et additive. On peut démontrer que
λ0 est σ−additive, c'est-à-dire que S
pour toute union dénombrable
P d'ensembles
Fi ∈ F0 disjoints 2 à 2 et tels que i Fi ∈ F0 , on a λ0 (F ) = i λ0 (Fi ) (cette
partie de la preuve n'est pas immédiate). Le théorème de Carathéodory permet
de montrer que λ0 a une extension unique λ sur B([0, 1]), appelée mesure de
Lebesgue sur [0, 1].
Notons que les applications limsupn Xn et lim inf n Xn dénies ci-dessus sont
a priori à valeurs dans R̄, même si les v.a. Xn sont à valeurs dans R.
Proposition 1. Soit {Xn}n∈N une suite de v.a. sur (Ω, F ) à valeurs dans
(R, B(R)). On a les propriétés suivantes :
(a) supn Xn et inf n Xn sont des v.a.,
(b) limsupn Xn et liminf n Xn sont des v.a.,
(c) l'ensemble {ω ∈ Ω : limsupn Xn (ω) = liminf n Xn (ω)} ∈ F .
T
Démonstration : pourS (a), on utilise le fait que {supn Xn ≤ x} = n {Xn ≤ x}
et {inf n Xn < x} = n {Xn < x}. (b) s'obtient par application répétée de (a).
Pour (c), notons Y = limsupn Xn et Z = liminf n Xn . Comme Y et Z sont des
v.a., Y − Z est une v.a., ce qui conclut la preuve.
Il est clair que cette fonction ne peut prendre qu'un nombre ni de valeurs,
qui sont les sommes d'un nombre quelconque de ai . Il y a évidemment de
multiples façons d'écrire (3.6). Inversement, toute v.a. X ∈ eF + s'écrit sous la
forme (3.6) et admet même une écriture (3.6) canonique qui est unique. Soit X
l'ensemble des valeurs prises par X , et soit pour a ∈ X , Aa = X −1 ({a}). Les
ensembles Aa ∈ F constituent une partition nie de Ω et on a :
X
X= aIA . (3.8)
a∈X
X
n
n2
k
α = lim % P({ω : k/2n ≤ X(ω) < (k + 1)/2n }) + nP({ω : X(ω) ≥ n}).
2n
k=0
86 Mathématiques pour les systèmes dynamiques
où {Xn } est une suite croissante de v.a. étagées positives telle que limn %
Xn = X .
On montre aisément que, pour X ≥ 0 :
E[X] = sup E[Y ], (3.12)
Y ∈eF + Y ≤X
cette dernière relation (3.12) étant souvent utilisée comme dénition de l'espé-
rance. On a alors le théorème suivant.
Théorème 4. Si (a, b) ∈ R+ , et X, Y ∈ F + , on a : E[aX + bY ] =
aE[X] + bE[Y ].
Si X, Y ∈ F + et si X ≤ Y , on a E[X] ≤ E[Y ].
(Convergence monotone) Soit {Xn }n∈N une suite croissante de v.a.
de F + et soit X = limn Xn . Alors, limn E[Xn ] = E[X].
(Lemme de Fatou) Si {Xn } est une suite de v.a. de F + , alors :
E [liminf n Xn ] ≤ liminf n E[Xn ]. (3.13)
Remarque 1. Si X ∈ F + est une v.a. positive, alors :
∀X ∈ F + , E[X] < +∞ ⇒ X < +∞ P-p.s.
En eet, remarquons que P{X = +∞} = lima→∞ P{X ≥ a}. Or a 1{X≥a} ≤
X . Par suite P{X ≥ a} ≤ E[X]
a −−−→ 0, ce qui entraîne P{X = +∞} = 0.
a→∞
Exemple 2. Soit (Zk ) une suite de v.a. positives ;
P P
alors E [ k Zk ] = E[Zk ] ≤ ∞ (application de la convergence monotone
et P
de la linéarité de l'espérance),
P
si E[Zk ] < ∞, alors Zk est ni P-p.s. et donc Zk → 0 P-p.s.
Il nous reste à dénir l'espérance des v.a. réelles de signe quelconque. Pour
cela, on utilise le fait qu'une v.a. réelle est toujours la diérence de deux v.a.
positives, cette décomposition n'étant bien sûr pas unique. Nous utilisons dans
la suite la décomposition canonique en partie positive et partie négative, qui
sont les v.a. dénies par :
X + , X ∨ 0 et X − , (−X) ∨ 0,
où a∨b = max(a, b). On vérie aisément que X = X + −X − et |X| = X + +X − .
Cette décomposition est minimale dans le sens où, pour toute autre décompo-
sition de X de la forme X = Y − Z avec Y ∈ F + et Z ∈ F + , nous avons
Y ≥ X + et Z ≥ X − .
Probabilités et calcul stochastique 87
On vérie alors que PX donnée par (3.17) dénit bien une probabilité sur (E, E).
Nous donnons ci-dessous quelques exemples élémentaires.
88 Mathématiques pour les systèmes dynamiques
La mesure de Lebesgue sur [0, 1] est une probabilité, que l'on appelle
généralement loi uniforme sur [0, 1]. Plus généralement, pour a < b, on
appelle loi uniforme sur [a, b], la mesure de probabilité (b−a)−1 I[a,b] (x)dx,
où IA est l'indicatrice de l'ensemble A (voir (3.7)).
La mesure sur R de densité pX (x) = π−1 (1 + x2 )−1 R∞ dx par rapport à la
mesure de Lebesgue est une probabilité sur R, car −∞ pX (x)dx = 1. On
remarque que le moment d'ordre 1 de cette mesure est inni. Cette loi
est appelée loi de Cauchy standard.
La mesure de densité :
1 (x − µ)2
pX (x) = √ exp − ,
σ 2π 2σ 2
par rapport à la mesure de Lebesgue est une probabilité. Cette densité
est appelée laR densité gaussienne . La moyenne de cette loi est µ et sa
variance est (x − µ)2 pX (x) dx = σ 2 .
Dénition 18 (Fonction de répartition). La fonction de répartition de la
v.a. réelle X est la fonction FX : R → [0, 1], dénie par :
FX (x) = PX (] − ∞, x]) = P(X ≤ x). (3.18)
La fonction de répartition est une
T fonction croissante, continue à droite : on
remarque en eet que ] − ∞, x] = ] − ∞, xn ], pour toute suite décroissante xn ,
telle que limn→∞ xn = x. La propriété (5) de la dénition 4 implique donc que
FX (x) = limn→∞ F (xn ) et donc, plus généralement, que limh→0+ FX (x + h) =
FX (x). Un raisonnement similaire montre que la fonction de répartition admet
en chaque point une limite à gauche : limh→0− FX (x + h) = PX (] − ∞, x[) =
FX (x−). Remarquons aussi que :
lim FX (x) = 0 et lim FX (x) = 1.
x→−∞ x→∞
Pour p > 0, on dit que X admet un moment d'ordre p, noté E|X|p , si |X|p
admet un moment d'ordre 1. Nous notons Lp l'espace des variables aléatoires
admettant un moment d'ordre p et, pour X ∈ Lp , kXkp = (E[|X|p ])1/p . Il
est facile de voir que k · kp est positive et vérie l'inégalité triangulaire. Ce
n'est toutefois pas une norme, car la relation kXkp = 0 entraîne seulement que
X = 0 P-p.s. On dit que k · kp est une semi-norme. Comme nous le verrons, il
est possible (mais pas toujours utile ni pratique), de quotienter l'espace par
la relation d'équivalence X ≡ Y ⇐⇒ X = Y P-p.s. Les semi-normes Lp sont
monotones dans le sens suivant.
Proposition 6. Soit 1 ≤ p ≤ r < ∞ et Y ∈ Lr . Alors, Y ∈ Lp et kY kp ≤
kY kr .
Cette dernière inégalité découle directement de l'inégalité de Jensen appli-
quée avec c(x) = xr/p . Soit X une v.a. à valeurs réelles. La borne essentielle
de X est dénie par :
kXk∞ = sup {a; P{ω : |X(ω)| > a} > 0} .
Proposition 7. Soit p ≥ 1. Nous avons (inégalité de Minkovski) :
kX + Y kp ≤ kXkp + kY kp . (3.21)
Soient p, q ≥ 1 tels que p−1 + q −1 = 1. Nous avons (inégalité de Hölder) :
kXY k1 ≤ kXkp kY kq . (3.22)
90 Mathématiques pour les systèmes dynamiques
Les éléments diagonaux sont égaux à la variance des variables Xi ; les élé-
ments hors-diagonaux sont les coecients de covariance. La matrice de cova-
riance est une matrice symétrique (Γ(X) = Γ(X)T ) et semi-dénie positive. En
eet, pour tout d-uplets (a1 , a2 , · · · , ad ), nous avons :
!2
X
d X
E ai (Xi − E[Xi ]) = ai aj Γ(X)i,j ≥ 0.
i=1 i,j
Γ(X + a) = Γ(X),
Γ(M X) = M Γ(X)M T .
Le lemme technique qui suit donne un critère plus pratique pour vérier
l'indépendance de tribus.
Lemme 3. Soient G et H deux sous-tribus de F et soit I et J deux π−systèmes
tels que G , σ(I) et H , σ(J ). Alors, les tribus G et H sont indépendantes si
et seulement si I et J sont indépendantes, c'est-à-dire :
P(I ∩ J) = P(I)P(J), ∀I ∈ I, J ∈ J .
B1 ⊗ B2 , σ(A1 × A2 , A1 ∈ B1 , A2 ∈ B2 ), (3.28)
est une tribu sur E1 × E2 appelée tribu produit de B1 et de B2 et il existe une
unique mesure, notée ν 1 ⊗ ν 2 et dénie sur B1 ⊗ B2 , telle que :
ν 1 ⊗ ν 2 (A1 × A2 ) = ν 1 (A1 )ν 2 (A2 ), A1 ∈ B1 , A2 ∈ B2 .
4. la loi du vecteur aléatoire (X1 , . . . , Xn ), notée P(X1 ,··· ,Xn ) , est égale au
produit des lois des v.a Xk :
P(X1 ,··· ,Xn ) = PX1 ⊗ · · · ⊗ PXn ;
et, dans ce cas, si E [|X|] < ∞, E [|Y |] < ∞, on a E[XY ] = E[X]E[Y ], résultat
que l'on utilise sans cesse en probabilité.
On note donc cette densité N (m, σ 2 ). Par abus de langage, nous appellerons
variable gaussienne de variance nulle une constante X = m P-p.s. Un calcul
élémentaire montre que, pour tout u ∈ R :
Z ∞
1 x2 u2
√ exp(− ) exp(ux) dx = exp ,
−∞ 2π 2 2
96 Mathématiques pour les systèmes dynamiques
Ce théorème montre que la loi d'une v.a. gaussienne est entièrement déter-
minée par la donnée de sa moyenne et de sa matrice de covariance.
Lorsque la matrice de covariance K est inversible, la loi d'un vecteur aléa-
toire gaussien de moyenne m et de covariance K a une densité par rapport à
la mesure de Lebesgue sur Rd et cette densité est donnée par :
1 1
p(x; m, K) = √ d exp − (x − m)T K −1 (x − m) .
2π (det(K))1/2 2
3. pour tout pavé A = [a1 , b1 ] × · · · × [ad , bd ] tel que P(X ∈ ∂A) = 0 (où ∂A
désigne la frontière de A) :
lim P(Xn ∈ A) = P(X ∈ A).
n→∞
P
Ce théorème montre que la moyenne empirique n−1 ni=1 Xi d'une suite de
v.a. i.i.d. intégrables converge P-p.s. vers la moyenne théorique (espérance) de
ces variables.
Théorème 12 (Théorème de la limite centrale). Soit (Xn , n ∈ N) une
suite réelle de v.a. i.i.d. appartenant à L2 et telles que E[Xi ] = µ et E[(Xi −
µ)2 ] = σ 2 < ∞. Alors :
1 X
n
√ (Xi − µ) →d N (0, σ 2 ).
n i=1
Ce
Pthéorème permet d'évaluer la vitesse à laquelle la moyenne empirique
n−1
n
1 X i converge vers la moyenne E[X1 ] = µ. Ceci permet en particulier de
déterminer, en statistique, des intervalles de conance.
On remarque
R que Rla variable aléatoire Y est B -mesurable et que, pour tout
B ∈ B, B Y dP = B XdP . On a donc la caractérisation suivante.
Proposition 12. La variable aléatoire Y dénie par (3.37) est l'unique variable
aléatoire B -mesurable telle que :
Z Z
Y dP = XdP pour tout B ∈ B. (3.38)
B B
3.3.2. Généralisation
Nous avons construit précédemment l'espérance conditionnelle par rapport
à des événements de probabilité strictement positive. Notre objectif est main-
tenant conditionner par rapport aux valeurs prises par une v.a. Y , c'est-à-dire
de conditionner par rapport à des événements du type {Y = y} qui peuvent
être de probabilité nulle. Nous allons pour cela utiliser la caractérisation qui
nous est donnée par la proposition 12.
L'espace L2 , L2 (Ω, F, P), muni du produit scalaire < X, Y >, E[XY ],
est un espace hilbertien. Dans les espaces hilbertiens, il est possible de dénir
la projection d'un vecteur (ici, une variable aléatoire X ∈ L2 (Ω, F , P)) sur
les sous-espaces vectoriels fermés. Par sous-espace vectoriel fermé de L2 , nous
entendons un sous-espace vectoriel H tel que toute suite convergente d'éléments
de H a une limite dans H. Soit B une sous-tribu de F et dénissons :
HB , Z ∈ L2 (Ω, F, P), Z a un représentant B -mesurable .
HB est un sous-espace vectoriel fermé (pour preuve, HB est isomorphe à
L2 (Ω, B, P) et on applique la proposition 8). On a le résultat suivant.
Probabilités et calcul stochastique 101
Cette variable vérie, pour toute v.a. Z B -mesurable, E[XZ] = E[Y Z].
On note E[X|B] cette variable aléatoire (en gardant à l'esprit qu'elle est
dénie à une équivalence près : E[X|B] est une version de l'espérance condi-
tionnelle). Si Y est une v.a., alors l'espérance de X par rapport à Y , notée
E[X|Y ], est simplement l'espérance de X par rapport à la tribu engendrée par
Y.
La dénition précédente s'applique aux v.a X de L2 (Ω, F , P) : elle s'étend
aux v.a. positives et/ou intégrables, grâce au lemme suivant.
Lemme 5 (élémentaire d'unicité). Soient X et Y deux v.a. B -mesurables
toutes deux positives ou toutes deux intégrables, vériant :
Z Z
∀B ∈ B, XdP ≥ Y dP (respectivement =).
B B
Notons que si X est intégrable, alors Y l'est aussi (prendre B = Ω). Pour
étendre le résultat au cas intégrable, nous allons prouver que, pour X, Y deux
v.a. positives intégrables, et pour a, b ∈ R, nous avons (linéarité de l'espérance
conditionnelle) :
E[aX + bY |F ] = aE[X|F ] + bE[Y |F ].
2. (Lemme de Fatou conditionnel) Soit (Xn )n≥0 une suite de v.a. po-
sitives ; alors E[lim inf Xn |G] ≤ lim inf E[Xn |G].
3. (Inégalité de Jensen conditionnelle) Soit c : R → R convexe telle
que E [|c(X)|] < ∞. Alors, E[c(X)|G] ≤ c(E[X|G]).
4. (Convergence dominée conditionnelle) Soit (Xn )n≥0 une suite de
v.a. telle que |Xn | ≤ V P-p.s., avec E[V ] < ∞ et Xn → X P-p.s. Alors,
E[Xn |G] → E[X|G] P-p.s.
PI ◦ Π−1
I,J = PJ , (3.41)
Probabilités et calcul stochastique 105
c'est-à-dire que, pour tout ensemble A ∈ E ⊗|J| , PJ (A) = PI (Π−1 I,J (A)). Réci-
proquement, si l'on se donne une famille de probabilité (ν I , I ∈ I), la question
se pose de savoir si ce sont les répartitions nies d'un processus. Il est clair
que, pour cela, elles doivent a minima vérier les conditions de compatibilité
(3.41). En fait, cette condition est aussi susante. Nous introduisons à cette
n l'espace canonique. On pose :
ν I = ν n1 ⊗ · · · ⊗ ν np . (3.43)
Il est clair que l'on dénit ainsi une famille (ν I , I ∈ I) compatible (c'est-à-dire
vériant la condition (3.41)). Donc, si Ω = E N , Xn (ω) = ω n et F = σ(Xn , n ∈
N), il existe une unique probabilité P sur (Ω, F ) telle que (Xn , n ∈ N) soit une
suite de v.a. indépendantes de loi ν n .
X
n X
n
E[Yn ] = ui E[Xti ], var(Yn ) = uj uk Γ(tj , tk ),
i=1 j,k=1
et donc :
Xn X
n
E[exp(iYn )] = exp i uk m(tk ) − 1/2 uj uk Γ(tj , tk ) .
k=1 j,k=1
3.5.1. Dénition
2
X
n
Xt − Xs = Xs+2−n i(t−s) − Xs+2−n (i−1)(t−s) , (3.47)
i=1
1. pour tous t1 < · · · < tn , les v.a. Xt2 − Xt1 , · · · , Xtn − Xtn−1 sont indé-
pendantes ;
Supposons qu'un tel objet existe. Alors, pour tout t1 < · · · < tn :
Xt1 = Xt1 ,
Xt2 = Xt1 + (Xt2 − Xt1 ),
..
.
Xtn = Xt1 + (Xt2 − Xt1 ) + · · · + (Xtn − Xtn−1 ),
et donc le vecteur (Xt1 , · · · , Xtn ) est gaussien, c'est-à-dire que X est un pro-
cessus gaussien. On a alors m(t) = E[Xt ] = 0 et, pour 0 ≤ s < t :
d'où Γ(s, t) = min(t, s). On notera dans la suite s ∧ t , min(t, s). Notons que
la fonction s ∧ t vérie (3.45) et (3.46) puisque, posant t0 = 0 :
X
n X
n X
j∧k X
n X
n
u j u k tj ∧ t k = uj uk (tl − tl−1 ) = (tl − tl−1 ) u2l ≥ 0.
j,k=1 j,k=1 l=0 l=0 j=l
(3.48)
Ceci nous assure l'existence d'un processus gaussien réel (Xt , t ≥ 0) tel que
E[Xt ] = 0 et E[Xs Xt ] = s ∧ t. Pour 0 < s < t, la v.a. Xt − Xs est distribuée
suivant une loi gaussienne de moyenne nulle et de variance t − s. Pour t1 <
t2 < t3 < t4 , E [(Xt2 − Xt1 )(Xt4 − Xt3 )] = 0. Vu les propriétés des vecteurs
gaussiens, un tel processus vérie les conditions (1) et (2) de la dénition 33.
Dénition 34 (Modication d'un processus). Un processus (Yt , t ∈ R+ )
est une modication du processus (Xt , t ∈ R+ ) si P[Xt = Yt ] = 1, ∀t ∈ R+ .
Il est clair que la condition précédente implique que les deux processus ont
même loi. On s'intéresse tout particulièrement aux modications continues X ,
c'est-à-dire à l'existence de processus Y qui soient des modications du proces-
sus X et dont les trajectoires soient presque sûrement continues. Kolmogorov
a donné un critère simple permettant de montrer qu'un processus admet une
modication continue (voir [REY 91] pour la démonstration).
Théorème 17 (de Kolmogorov). Soit X = (Xt , t ∈ R+ ) un processus à
valeurs dans (Rd , B(Rd)). Supposons que pour tout s, t :
√
renormalisé (Xt − Xs )/ t − s est distribué suivant une loi gaussienne centrée
de variance unité. Ceci implique que :
" 4 #
4
2 Xt − Xs
E |Xt − Xs | = (t − s) E √ = 3(t − s)2 , (3.49)
t−s
et qui ne sont pas à variations nies (on pourra considérer par exemple la
fonction f (s) = s sin(1/s)).
Nous allons montrer dans la suite que, presque sûrement, la variation qua-
dratique des trajectoires du mouvement brownien ne tend pas vers 0, d'où l'on
déduira que, comme le mouvement brownien est à trajectoires continues, le
mouvement brownien n'est pas à variations nies.
Proposition 18. Soit (Bt , t ∈ R+ ) un mouvement brownien réel. Alors :
V2 (π, t, B) → t, dans L2 (Ω, F , P).
|π|→0
Pn−1
Démonstration : posons ρπ , i=0 (Bti+1 − Bti )2 . On a E[ρπ ] = t et :
X X
n−1
E (ρπ − t)2 ) = var(ρπ ) = var[(Bti+1 -Bti )2 ] = 3 (ti+1 -ti )2 ≤ 3|π|t → 0.
i=0
de probabilité ltré et où, pour tout t ∈ T, Xt est une v.a. à valeurs dans (E, E),
Ft -mesurable.
Soit (Bt , t ∈ R+ ) un mouvement brownien réel issu de 0. Posons Ft0 =
σ(Bs , s ≤ t). On voit que la propriété (1) de la dénition 33 peut s'énoncer de
la façon suivante : pour tout 0 ≤ s < t, Bt − Bs est indépendante de Fs0 . Ceci
conduit à la dénition d'un F -mouvement brownien.
Dénition 38 (F−mouvement brownien). Un processus réel adapté X =
(Ω, Ft , F, (Bt )t∈T , P) est un F -mouvement brownien issu de 0 si :
à valeurs dans (Rd , B(Rd )) est progressif ou progressivement mesurable si, pour
tout t ≥ 0, (s, ω) → X(s, ω) est mesurable de ([0, t] × Ω, B([0, t]) ⊗ Ft ) dans
(Rd , B(Rd )).
On vérie facilement que tout processus continu (respectivement continu
à droite ou continu à gauche) est progressivement mesurable. On dénit une
tribu sur R+ × Ω en posant :
v.a. à valeurs dans R+ mais elle a une propriété supplémentaire, celle d'être en
quelque sorte adaptée à Bt , au sens suivant : si l'on connaît (Bs , s ≤ t), on
sait si {τ ≤ t} a eu lieu ou non. Ce type de v.a. sera appelé un temps d'arrêt.
Soit un espace de probabilité ltré (Ω, Ft , F , P). On suppose que T = N ou
R+ , T̄ = N̄ ou R̄+ (avec N̄ = N ∪ {+∞}, R̄+ = R+ ∪ {+∞}) et on pose :
F∞ = σ(Xt , t ∈ T ). (3.56)
Dénition 40 (Temps d'arrêt). On appelle temps d'arrêt toute v.a. τ à
valeurs T̄ telle que {τ ≤ t} ∈ Ft pour tout t ∈ T.
Dénition 41 (Tribu des événements antérieurs au temps d'arrêt).
Soit τ un temps d'arrêt. La tribu des événements antérieurs à τ est la tribu :
Fτ , {A ∈ F∞ , ∀t ∈ T, A ∩ {τ ≤ t} ∈ Ft }. (3.57)
On vérie immédiatement que (3.57) dénit une tribu, que τ = t (c'est-à-
dire constant) est un temps d'arrêt et qu'alors Fτ = Ft .
Proposition 19. 1. Si τ est un temps d'arrêt, τ est Fτ mesurable.
2. Si σ et τ ont des temps d'arrêt avec τ ≤ σ , alors Fσ ⊂ Fτ .
3. Si σ et τ sont des temps d'arrêt, alors σ ∧ τ est un temps d'arrêt.
Considérons tout d'abord le cas T = N. On remarque alors que τ est un
temps d'arrêt si et seulement si, pour tout n ∈ N, {τ = n} ∈ Fn et que
Fτ = {A ∈ F∞ , ∀n, A ∩ {τ = n} ∈ Fn }. Soient X = (Ω, Fn , F , Xn , P) un
processus adapté à valeurs dans (E, B) et X∞ une v.a. F∞ -mesurable. On
dénit une nouvelle v.a. Xτ en posant :
Xτ = Xn sur {τ = n}, n ∈ N̄. (3.58)
Alors, Xτ est Fτ -mesurable puisque :
{Xτ ∈ A} ∩ {τ = n} = {Xn ∈ A} ∩ {τ = n} ∈ Fn .
L'exemple-type de temps d'arrêt est alors, pour A ∈ E :
τ A (ω) = inf{n ≥ 0, Xn (ω) ∈ A}, (3.59)
où l'on convient que inf ∅ = +∞. En eet τ A est un temps d'arrêt car :
{τ A = n} = {X0 6∈ A, · · · , Xn−1 6∈ A, Xn ∈ A} ∈ Fn .
τ A s'appelle le temps d'atteinte de A et on voit que Xτ A représente, sur {τ A <
∞}, la valeur du processus lorsqu'il entre dans l'ensemble A.
Considérons maintenant le cas T = R+ . Il y a maintenant quelques
S pro-
blèmes techniques car on ne peut plus décomposer l'espace Ω = t∈R̄+ {τ =
t}. Soit X = (Ω, Ft , F, (Xt )t∈R+ , P) un processus adapté à valeurs dans
(Rd , B(Rd )) et soit X∞ une v.a. F∞ mesurable. On pose :
Xτ (ω) = Xτ (ω) (ω). (3.60)
114 Mathématiques pour les systèmes dynamiques
3.7. Martingales
puisque {τ ≥ n + 1} = {τ ≤ n}c ∈ Fn .
Corollaire 2. Soient (Xt , t ∈ T ) une sous-martingale continue à droite P-p.s.
et τ un temps d'arrêt borné. Alors, E[Xτ ] ≥ E[X0 ].
Théorème 18. Soient (Xt , t ∈ T ) une sous-martingale continue à droite
P-p.s. et σ ≤ τ deux temps d'arrêt bornés. Alors, on a :
Les résultats énoncés ci-dessus restent vrais pour les surmartingales (res-
pectivement, les martingales), en changeant ≤ par ≥ (respectivement, par =).
On peut obtenir des inégalités maximales pour les moments, comme suit.
Théorème 19 (de Doob). Soit (Xt , t ∈ T ) une martingale (respectivement,
une sous-martingale positive) continue à droite, telle que supt E [|Xt |p ] < ∞,
p > 1, alors :
p
k sup |Xt |kp ≤ sup kXt kp . (3.69)
t p−1 t
∞
!1/2
X
E [|Xn |] ≤ (E Xn )1/2 = σ
2
k −2 ,
k=1
σ 2
k=1 k
−2
. Cette propriété permet d'établir directement la loi forte
P des
grands nombres, par application du lemme 6 suivant
P [WIL 91]. En eet, Yi /i
converge P-p.s. et le lemme montre que n−1 ni=1 Yi converge.
Lemme 6 (de Kronecker). Soit (bn ) une suite de réels strictement positifs,
avec bn % ∞. Soit (xn ) une suite réelle et sn = x1 + x2 + · · · + xn . Alors :
X
xn sn
converge ⇒ →0 .
bn bn
où 0 ≤ t1 < · · · < tn < ∞ et où les Ui sont des v.a. Fti −mesurables bornées.
On note E l'ensemble des fonctions étagées. Pour φ ∈ E , on pose :
Z t X
n
φs dBs = Ui (Bti+1 ∧t − Bti ∧t ). (3.72)
0 i=1
Rt Rt
Proposition 26. Soient φ ∈ E, Mt = 0
φs dBS et At = 0
φ2s ds. Alors, Mt et
Mt2 − At sont des martingales.
Démonstration : on utilise le lemme 7, dont la preuve est laissée en exercice.
Lemme 7. Soient X = (Ω, Ft , F , Xt , P) un processus intégrable et 0 ≤ t0 <
· · · < tn < tn+1 = ∞. Si, pour tout i et tous (s, t) vériant ti ≤ s < t ≤ ti+1 ,
on a E[Xt − Xs |Fs ] = 0, alors Xt est une martingale.
En appliquant ce lemme pour ti ≤ s < t ≤ ti+1 , nous avons :
lim kf − Pn f k2 = 0. (3.77)
n→∞
Les fonctions continues à support compact étant denses dans l'ensemble des
fonctions de carré intégrable et l'application Pn étant contractante, (3.77) est
en fait vériée pour toute fonction f ∈ L2 (R+ ).
Soit maintenant φ ∈ L2 (P, R+ ). Dénissons :
Z " #
t XZ tk+1
1X
2 2
E (φn (s) − Bs ) ds = E (Btk − Bt ) dt = (tk+1 −tk ) → 0,
0 tk 2
k k
et donc, que la suite de processus φn converge dans L2 (P) vers B . Par dénition
de l'intégrale stochastique, nous avons :
Z t X
Bs dBs = lim Btk (Btk+1 − Btk ).
0 n→∞
k
Notons que : Bt2j+1 − Bt2j = (Btj+1 − Btj )2 + 2Btj (Btj+1 − Btj ) et donc, que :
X 1 2 1X
Btk (Btk+1 − Btk ) = B − (Btk+1 − Btk )2 .
2 t 2
k k
P
On conclut en montrant que k (Btk+1 − Btk )2 → t dans L2 . Remarquons
que, par dénition, les variables {Btk+1 − Btk } sont des variables gaussiennes
indépendantes de moyenne nulle et de variance 2−n . Par suite :
!2
X
E (Btk+1 − Btk )2 − E (Btk+1 − Btk )2 =
k
" #
X h 2 i
2 2
E E (Btk+1 − Btk ) − E (Btk+1 − Btk ) ≤ 2−n+1 .
k
Notons que φs I[0,τ p [ (s) ∈ L (P) (φs I[0,τ p [ (s) est progressif et borné) et posons :
2
Z t
Mtp = φs I[0,τ p [ (s)dBs . (3.83)
0
R
Évidemment, on notera encore [J(φ)]t = 0t φs dBs . On prendra toutefois
R
garde à ce que 0t φs dBs n'est plus nécessairement une v.a. intégrable. Nous
concluons la discussion précédente par un résultat de localisation.
Proposition
Rt
30. Soit φ ∈ L0 (P) et A ∈ F0 . Supposons que φ ≡ 0 sur A.
Alors, 0 φs dBs = 0 P-p.s. sur A.
Démonstration : supposons que φ ∈ L2 (P). Alors :
" Z 2 # " "Z 2 ##
t t
E IA φs dBs = E IA E φs dBs |F0
0 0
Z t Z t
2 2
= IA E φs ds|F0 = E IA φs ds = 0,
0 0
RT
et donc 0 φs dBs = 0 P-p.s. sur A. Si φ ∈ L0 (P), on se ramène au cas précédent
R
en introduisant les temps d'arrêt τ p = inf{t, 0t φ2s ds ≥ p}.
1. Bt − Bs est indépendant de Fs ;
2. B0 = 0 et Bt − Bs suit une loi gaussienne Nd (0, (t − s)Id );
3. Bt est presque sûrement à trajectoires continues.
Lemme 9. Soit Bt = (Bt1 , · · · , Btd ) un mouvement brownien à valeurs Rd issu
de 0. Alors, pour tout i 6= j , Bti Btj est une martingale.
Probabilités et calcul stochastique 127
Mt est une martingale locale vectorielle et, si φ ∈ L2d (P), Mt est une martingale
de carré intégrable.
R R
Proposition 31. Soient φ, ψ ∈ L0 (P), Mt = 0t φs dBsi , Nt = 0t ψs dBsj , i 6= j .
Alors Mt Nt ∈ M0c,loc . Si φ, ψ ∈ L2 (P), Mt Nt est une martingale continue.
Démonstration : on se ramène au cas où φ, ψ sont des processus étagés et on
conclut en appliquant le lemme 9.
La proposition précédente montre de plus que, pour φ ∈ L2d ( P) :
"Z 2 # "Z 2 # Z
t X
d t t
E < φs , dBs > = E φks dBsk =E |φs |2 ds .
0 k=1 0 0
soit encore :
où X0 est FR0 -mesurable, φ ∈ L0d (P) et αs est un processus progressif tel que,
pour tout t, 0t |αs |ds < ∞ P-p.s.
Nous utiliserons de façon équivalente la notation diérentielle :
X
d
dXt =< φt , dBt > +αt dt = φkt dBtk + αt dt. (3.90)
k=1
Remarque 4. La décomposition (3.89) est unique. En eet, si l'on considère
une seconde décomposition :
Z t Z t
Xt = X0 + < ψ s , dBs > + β s ds,
0 0
et donc : Z t
1
Xt = Bs2 dBs1 + Bs1 dBs2 .
2 0
et, en particulier :
Z t
Xt2 − X02 = 2 Xs dXs + ≺ X t . (3.96)
0
P
Démonstration : en notant Ktπ = i Kti I[ti ,ti+1 [ (t), nous avons :
X Z t
Kti ∆X(ti ) = Ksπ dXs .
0
Par ailleurs :
"Z 2 # Z
t t
2 2
E (Ksπ − Ks ) < φs , dBs > =E (Ksπ − Ks ) |φs | ds ,
0 0
Les deux derniers termes de cette somme tendent vers 0 dans L2 . En eet, le
processus t 7→ Vt étant continu :
X X Z t
2
(∆Vti ) ≤ sup |∆Vti | |∆Vti | ≤ sup |∆Vti | |αs | ds → 0.
0 |π|→0
Ces variables
P étant bornées, elles convergent aussi dans
P L . Il reste à montrer
2
Remarquons que t 7→ Mt2 −At est une martingale par construction, impliquant :
hX i
δπ , E [(∆M (ti ))2 − ∆A(ti )]2 ,
Probabilités et calcul stochastique 133
et, en utilisant les relations (a+ b)2 ≤ 2a2 + 2b2 et E (∆M (ti ))2 = E [∆A(ti )] :
hX i hX i
δ π ≤ 2E (∆M (ti ))4 + 2E (∆A(ti ))2
hX i hX i
≤ 2K 2 E (∆M (ti ))2 + 2KE ∆A(ti )
hX i hX i
≤ 2K 2 E ∆A(ti ) + 2KE ∆A(ti ) ≤ 2(K 2 + K)E[At ],
Enh particulier,
R est une martingale locale. Si de plus, pour tout t ∈ [0, T ],
(Zt )i
E exp 2 0 |φs | ds < ∞, alors on peut montrer (théorème de Novikov) que
1 t 2
3.11.1. Introduction
L'évolution de nombreux systèmes physiques est décrite par une équation
diérentielle ordinaire (EDO, voir chapitre 5) de la forme :
dx(t) = b(x(t))dt, (3.101)
mais, dans certaines circonstances, ces systèmes physiques sont perturbés par
un bruit aléatoire. Une façon de prendre en compte ces perturbations consiste
à rajouter à (3.101) un terme perturbateur de la forme σdBt , où σ caractérise
la puissance du bruit. Ceci conduit à une équation d'évolution de la forme :
dx(t) = b(x(t))dt + σdBt . (3.102)
Probabilités et calcul stochastique 135
Si Rσs est un processus progressif à Rvaleurs dans Rm × Rd et tel que, pour tout
t, 0 |σ s |2 ds < ∞ P-p.s., on dénit 0 σ s dBs composante par composante par :
t t
Z t d Z
X t
s dBs , i ∈ {1, · · · , m}.
σ i,j j
σ s dBs =
0 i j=1 0
On dénit, pour φ ∈ H :
"Z #
T
−ct 2
kφkc = E e |φs | ds . (3.112)
0
Probabilités et calcul stochastique 137
K(T )
≤ kφ − ψk2c .
c
En choisissant c assez grand, on a K(T )/c < 1. U : H → H est alors une
application contractante et on conclut grâce au théorème du point xe.
Lemme 14 (Point xe). Soit B un espace de Banach, U : B → B une
application contractante, c'est-à-dire telle que kU (x) − U (y)k ≤ ρkx − yk avec
ρ < 1. Alors il existe un unique x tel que U (x) = x.
Il faut noter que Xtη , la solution continue de (3.106) de donnée initiale η,
n'est pas une solution trajectoire par trajectoire , mais une solution globale.
Nous avons toutefois le résultat suivant, conséquence de (3.111).
Corollaire 3. Sous les hypothèses du théorème 25, Xtη = Xtη P-p.s. sur η = η0 .
0
On montre, par des arguments similaires, que la solution de cette EDS est :
Z t Z t
2
Xt = η exp (c(s) − 1/2σ (s)]ds + σ(s)dBs , t ∈ [0, T ].
0 0
0
Démonstration : posons X = X η et X 0 = X η :
Z Z
s s
|Xs − η|p ≤ 2p−1 | σ u (Xu ) dBu |p + | bu (Xu ) du|p .
0 0
Alors, il existe un processus Z(t, x) continu en (t, x) tel que, pour tout x,
Z(t, x) = Ztx P-p.s.
Ce théorème et (3.125) impliquent qu'il existe un processus Xt (x) continu en
(t, x) et solution, pour tout x, de (3.106) avec η = x comme condition initiale.
C'est cette solution que nous choisirons dorénavant.
Proposition 35. Pour tout η ∈ L2 (F0 ), on a Xtη = Xt (η) P-p.s. pour tout t
(on pourra se reporter à la page 137 pour la dénition précise de Xtη ).
Démonstration : si η est étagée, ceci résulte directement du corollaire 3. Si
η ∈ L2 (F0 ), on choisit η étagée telle que η n → η dans L2 et P-p.s. ; alors,
d'après la proposition 34, Xtηn → Xtη dans L2 et, d'après la continuité en x,
on a Xt (η n ) → Xt (η), donc Xtη = Xt (η) P-p.s. La continuité en t montre que
cette égalité est vraie P-p.s. pour tout t.
et, nalement :
Z t Z t
Xt = Φ(t) η + Φ−1 (s)f (s) ds + Φ−1 (s)G(s) dBs . (3.130)
0 0
X
n
Yn = uTk Xtk , (3.131)
k=1
On a donc :
" !#
X
n X
n
1 X
n
E exp i uTk Xtk = E i uTk m(tk ) − uTj K(tj , tk )uk ,
2
k=1 k=1 j,k=1
(3.133)
ce qui montre que la loi du processus (Xt , t ≥ 0) est entièrement déterminée
par la donnée de la moyenne t 7→ m(t) et de la fonction de covariance (s, t) 7→
K(s, t).
Proposition 37. Si η suit une loi gaussienne, le processus Xt déni par
(3.130) est gaussien.
Démonstration
R t −1
: considérons l'espace H(B) (voir section 3.9). Les composantes
de Φ(t) 0 Φ (s)G(s) dBs sont dans H(B). De plus, elles sont indépendantes
Rt
de F0 . Comme η est F0 -mesurable gaussienne et Φ(t) 0 Φ−1 (s)f (s) ds est dé-
terministe, ceci implique que Xt est un processus gaussien.
On considère le processus Xt déni par (3.130). Calculons la moyenne m(t)
et la fonction de covariance K(s, t), dénis par (3.134). On a :
Z t
−1
m(t) = Φ(t) m(0) + Φ (s)f (s) ds , (3.134)
0
Probabilités et calcul stochastique 145
∂K
(s, t) = K(s, t)F T (t), t > s, K(s, s) = V (s), K(s, t) = K T (t, s). (3.139)
∂t
Ces équations n'admettent en général pas de solution explicite. Si l'on suppose
maintenant que l'équation linéaire est à coecients constants :
F (t) ≡ F, G(t) ≡ G, f ≡ 0, (3.140)
on a alors Φ(t) = etF et :
Z t
Xt = etF η + e(t−s)F GdBs , (3.141)
0
Z t
V (t) = etF V (0) + e−sF GGT (e−sF )T ds et F, (3.142)
0
V̇ (t) = F V (t) + V (t)F T + GGT , V (0) = E[ηη T ]. (3.143)
Supposons de plus que F est une matrice de Hurwitz : alors il existe M < ∞
et λ > 0 tels que |etF | ≤ M e−λt pour tout t > 0. On cherche à savoir sous quelle
condition le processus Xt est stationnaire, c'est-à-dire que pour tout h > 0 et
tout 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn :
(Xt1 +h , · · · , Xtn +h ) et (Xt1 , · · · , Xtn ) ont même loi.
On doit alors avoir V (t) = V (0) = V et V̇ (t) = 0 pour tout t. La condition
(3.144) implique l'équation de Liapounov suivante :
F V + V F T = −GGT , (3.144)
qui, dans ce cas, a une solution unique dénie positive (voir pages 214 ou
335). On conclut que la solution de condition initiale η qui a pour distribu-
tion Nd (0, V ) est stationnaire.
R∞
Il est possible d'expliciter cette solution puisque
(3.142) montre que : V = 0 esF GGT esF ds. On a donc établi le théorème
T
qui suit.
146 Mathématiques pour les systèmes dynamiques
où c, µ et σ sont des constantes positives. Cette équation est utilisée pour mo-
déliser un processus qui uctue autour d'une moyenne µ. Lorsque Xt s'écarte
de µ, le terme de dérive (µ − Xt )dt rappelle le processus Xt vers sa valeur
moyenne. L'intensité de cette force de rappel est ajustée par la constante c. Le
troisième paramètre σ mesure l'ordre de grandeur des uctuations autour de la
moyenne µ. Ce processus est un cas particulier d'EDS linéaire homogène. La
solution est donnée explicitement par (3.145) :
Z t
Xt = ηe−ct + µ(1 − e−ct ) + σe−ct ecs dBs .
0
3.12. Bibliographie
[BIL 95] Billingsley P., Probability and measure, 3e édition, John Wiley and Sons,
1995.
[BIL 99] Billingsley P., Convergence of probability measure, Wiley series in Pro-
bability and Statistics, 2e édition, 1999.
[DUR 91] Durett R., Probability : theory and examples, Brookscole, 1991.
Probabilités et calcul stochastique 147
[DUR 96] Durret R., Pinsky M., Stochastic calculus : a practical introduction,
Probability and Stochastic Series, CRC, 1996.
[FEL 68] Feller W., An introduction to probability theory and its application, John
Wiley & Sons, 1968.
[HOR 91] Horn R., Johnson C., Topics in matrix analysis, Cambridge University
Press, 1991.
[KAR 97] Karatzas I., Shreve S., Brownian motion and stochastic calculus, Gra-
duate texts in mathematics, Springer-Verlag, 2e édition, 1997.
[OKS 98] Oksendal B., Stochastic dierential equations, Universitext, Springer,
1998.
[RES 98] Resnick S., Probability path, Springer-Verlag, 1998.
[REV 97] Revuz D., Probabilité, Herman, Paris, 1997.
[REY 91] Revuz D., Yor M., Continuous martingales and Brownian motion, Sprin-
ger, 1991.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès, Traité
IC2, 2001.
[SCH 93] Schwartz L., Analyse - tome 4 : théorie de la mesure et applications,
Hermann, 1993.
[WIL 91] Williams D., Probability with martingales, Cambridge Mathematical Text-
books, 1991.
'(8;,Ê0( 3$57,(
6\VWqPHVG\QDPLTXHV
Chapitre 4
U j
U
i
V u
u
j
u
Ω
ji
Ω i
j
p x
0 1
qN qS
sud (voir la gure 4.2). On peut considérer comme cartes les deux projections
Géométrie Diérentielle 153
Montrons que cette dénition est indépendante du choix des cartes. Soient
deux autres cartes : en x, (Û1 , û1 ) et en f (x), (Û2 , û2 ). On a :
û2 ◦ f ◦ (û1 )−1 = û2 ◦ (u2 )−1 ◦ u2 ◦ f ◦ (u1 )−1 ◦ u1 ◦ (û1 )−1 .
Or, u1 ◦ (û1 )−1 et û2 ◦ (u2 )−1 sont de classe C r , donc û2 ◦ f ◦ (û1 )−1 aussi.
Dans la suite de ce chapitre, nous supposerons que les variétés sont de classe
C ∞ . On notera Fx l'ensemble des fonctions numériques de classe C ∞ dénies
sur un voisinage de x inclus dans V . On notera Cx l'ensemble des courbes
paramétrées de classe C ∞ passant par x. On rappelle que σ ∈ Cx est une
application C ∞ d'un intervalle I ⊂ R dans V , telle que σ(t0 ) = x, où t0 désigne
la variable initiale, en général le temps (et c'est ce qui sera considéré dans la
suite). Soit alors une courbe paramétrée σ ∈ Cx , on introduit la notion de
vecteur tangent comme suit.
Dénition 6 (Vecteur tangent). On appelle vecteur tangent à la courbe
paramétrée σ au point x, une application notée Xx :
d
Xx : Fx → R telle que Xx f = (f ◦ σ)(t) |t0 . (4.2)
dt
Xx f est donc la dérivée de f dans la direction de la courbe σ en t = t0 .
Proposition 1. Xx satisfait les propriétés suivantes :
i) Xx est une application linéaire de Fx dans R ;
ii) Xx (f.g) = (Xx f ).g(x) + f (x).(Xx g), ∀ f, g ∈ Fx .
La preuve est immédiate et résulte des propriétés de l'opérateur de dériva-
tion dt
d
. On peut montrer de manière tout aussi simple le théorème suivant.
Théorème 1. L'ensemble des applications Xx de Fx dans R est un espace
vectoriel pour les lois :
i) (Xx + Yx )f = (Xx f ) + (Yx f ), ∀f ∈ Fx ;
ii) (λXx )f = λ(Xx f ), ∀λ ∈ R.
Remarque 1. Ceci justie l'emploi du terme de vecteur tangent.
Explicitons à présent Xx f en coordonnées locales. Soit (U, u1 , u2 , · · · , un )
un système de coordonnées locales et x un point de U . Soit σ une courbe
paramétrée de Cx et f un élément de Fx . On a le schéma de la gure 4.5. Plus
précisément, on peut écrire :
d d X ∂(f ◦ u−1 )
n
d(ui ◦ σ)
(f ◦ σ)(t) = ((f ◦ u−1 ) ◦ (u ◦ σ))(t) = (u ◦ σ(t)) (t).
dt dt i=1
∂ui dt
Géométrie Diérentielle1 155
u−1 f
Rn - U - R
¾
u
6
σ
I⊂R
et, donc, la famille des ∂
∂ui , i = 1, · · · , n est génératrice.
x
P
Soit nj=1 αj ∂
∂uj une combinaison linéaire nulle et soit σ la courbe
x
dénie par :
σ j (t) = uj (x) + αj t , j = 1, · · · , n.
P
On montre facilement que le vecteur nj=1 αj ∂u∂ j est tangent à σ en x. On
x
a alors :
X n Xn
∂ ∂ui
αj ui = αj (x) = αi = 0 ∀i = 1, · · · , n.
j=1
∂u j x j=1
∂u j
La famille des ∂
∂ui , i = 1, · · · , n est libre et constitue donc une base.
x
Nous sommes en mesure à présent de dénir l'espace tangent en x.
Dénition 7 (Espace tangent). L'ensemble des vecteurs tangents en x à la
variété diérentielle V , noté Tx V , se nomme l'espace tangent en x à V . Les
P
nombres αj sont appelés les composantes du vecteur nj=1 αj ∂u∂ j relative-
x
ment au système de coordonnées locales (u1 , · · · , un ).
Remarque 2. Tx V peut donc être vu comme l'espace des dérivations, c'est un
espace vectoriel isomorphe à Rn .
Dénition 8 (Fibré tangent). L'union disjointe des espaces tangents consti-
tue ce que l'on appelle le bré tangent de V :
T V = ∪x∈V Tx V. (4.4)
(X + Y )x = Xx + Yx , ∀X, Y ∈ Ξ(V ),
où les Xi sont des fonctions dénies sur U et sont appelées les composantes de
X relativement à (U, u1 , · · · , un ). X est de classe C r si ses composantes sont de
classe C r .
Remarque 4. Cette formulation (4.5) du champ de vecteurs X à l'aide de ses
composantes dans la base des dérivées directionnelles du premier ordre fait de
X un opérateur de dérivation du premier ordre.
Introduisons à présent un nouveau champ de vecteurs, obtenu par le crochet
de Lie de deux champs de vecteurs.
Proposition 2. Soient X et Y deux éléments de Ξ(V ). Il existe un unique
champ de vecteurs Z tel que :
∀f ∈ C ∞ (V ), Zf = X(Y f ) − Y (Xf ). (4.6)
Dénition 10 (Crochet de Lie). Le champ de vecteurs Z déni par (4.6)
est appelé crochet de Lie des champs de vecteurs X et Y . Il est noté [X, Y ].
En utilisant (4.5) et la proposition 2, on obtient aisément l'expression en
coordonnées locales du crochet [X, Y ], comme l'indique la proposition suivante.
Pn P
Proposition 3. Si X = i=1 Xi et Y = ni=1 Yi ∂u∂ i et si l'on note
∂
∂ui
Z le crochet Z = [X, Y ], alors les composantes Zj de Z sont données par :
n
X
∂Yj ∂Xj
Zj = Xk − Yk . (4.7)
∂uk ∂uk
k=1
où Φ : R × V → V satisfait :
Φ(0, x) = x,
∂Φ
∂t (t, x) = X(Φ(t, x)).
ẋ = X(x),
x Xx vecteur tangent en x
courbe integrale du
champ de vecteurs X
Figure 4.6. Courbes intégrales et vecteurs tangents d'un champ sur le cylindre
où les ω i sont des fonctions dénies sur U et sont appelées les composantes de
ω relativement au système de coordonnées locales.
160 Mathématiques pour les systèmes dynamiques
Lτ i αj (x) = 0, i = 1, · · · , m et j = 1, · · · , n − m.
L'intégrabilité signie, entre autres, que le noyau de ∆ est engendré par les
covecteurs de degré 1 ou 1-formes diérentielles : dαj , j = 1, · · · , n − m qui
sont des diérentielles exactes (voir la dénition 16).
Le théorème suivant relie les concepts d'involutivité et d'intégrabilité. On
pourra consulter [ISI 89] pour une preuve.
Théorème 3 (de Frobenius). Une distribution ∆ est intégrable si et seule-
ment si elle est involutive.
X
m
ẋ = f (x) + gi (x)ui , (4.16)
i=1
Ce petit exemple met donc en évidence le fait qu'un système non linéaire
peut évoluer selon les directions des champs de commande, mais aussi dans les
directions données par les crochets de Lie de ces champs. On comprend donc
que l' opérateur crochet de Lie joue un rôle important dans l'étude de la
commandabilité des systèmes non linéaires. Donnons à présent les dénitions
de commandabilité.
Dénition 21 (Commandabilité locale). Le système (4.16) est localement
commandable en x0 si, pour tout voisinage U de x0 , l'espace accessible AU (x0 )
est aussi un voisinage de x0 :
AU (x0 ) = {y ∈ V / ∃ T ∈ R+ , ∃ u sur [0, T ] /
y = ϕT (x0 ) et ϕt (x0 ) ∈ U , ∀ t ∈ [0, T ]},
P
où ϕt désigne le ot du champ de vecteurs f + m i=1 gi ui .
Dénition 22 (Commandabilité faible). Le système (4.16) est localement
faiblement commandable en x0 si, pour tout voisinage U de x0 , l'espace acces-
sible AU (x0 ) contient un ouvert de V , ouvert qui ne contient pas nécessairement
x0 .
Remarque 8. Un système localement commandable est localement faiblement
commandable mais la réciproque est fausse, comme le montrera l'exemple 5.
Enonçons à présent le théorème suivant, qui donne un critère algébrique de
commandabilité locale faible (voir [ISI 89, NIJ 90] pour une preuve).
Géométrie Diérentielle 163
4.6. Bibliographie
[AND 00] d'Andréa-Novel B., Cohen de Lara M., Cours d'automatique. Com-
mande linéaire des systèmes dynamiques, Presses de l'École des Mines, 2000.
[CAR 82] Cartan H., Cours de calcul diérentiel, Hermann Paris, Collection Mé-
thodes, 1982.
[ISI 89] Isidori A., Nonlinear control systems, Springer-Verlag, Second Edition,
1989.
[NIJ 90] Nijmeijer H., Van der Schaft A.J., Nonlinear dynamical control sys-
tems, Springer-Verlag, 1990.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès, Traité
IC2, 2001.
[SPI 79] Spivak M., A comprehensive introduction to dierential geometry, Second
Edition, vol. 1, Publish or Perish, Inc. Houston, Texas, 1979.
[SUS 87] Sussmann H.J., A general theorem on local controllability, SIAM Journal
of Control and Optimization, vol. 25, n◦ 1, p. 158-194, janvier 1987.
Chapitre 5
5.1. Introduction
5.1.1. Biologie
Une boîte de Petri contient des bactéries qui se développent sur un substrat
nutritif. En notant x le nombre de bactéries, un modèle simplié, dit modèle
logistique, est donné par :
dx
= ax(xmax − x), (5.1)
dt
5.1.2. Chimie
Les diérents bilans (de matière, thermodynamique) peuvent, sous leur
forme simpliée, s'exprimer par des EDO. On considère par exemple une cuve
alimentée en produits chimiques A et B de concentrations respectives cA et cB
par l'intermédiaire de deux pompes de débits volumiques respectifs u1 et u2 .
Dans cette cuve, un mélangeur homogénéise les deux produits, qui réagissent
selon la réaction :
k1
nA A + nB B nC C,
k2
où nA , nB et nC sont les coecients stochiométriques de chacun des compo-
sants. Le mélange est sous-tiré par un orice de section s à la base de cette
cuve de section S = 1 m2 . Le bilan de matière conduit, en utilisant la relation
de Bernouilli, à :
dh p
S = u1 + u2 − 2sgh,
dt
où h est la hauteur du mélange dans la cuve et g, l'accélération de la pesanteur
(9.81 ms−2 ). Les lois de la cinétique donnent la relation (sous l'hypothèse d'une
cinétique de second ordre) :
vcin = −k1 cA cB + k2 c2C .
Ainsi, les conservations de chacun des composants donnent :
d(hcA ) p
= u1 cA0 − 2sghcA − nA vcin h,
dt
d(hcB ) p
= u2 cB0 − 2sghcB − nB vcin h,
dt
d(hcC ) p
= − 2sghcC + nC vcin h,
dt
avec cA0 = cA (entrant) et cB0 = cB (entrant) . En notant x = (h, hcA , hcB , hcC )T
le vecteur d'état, on obtient le modèle :
√ √
ẋ1 = u1 + u2 −q 2sg x1 ,
(−k1 x2 x3 +k2 x24 )
ẋ2 = u1 cA0 −
2sg
x1 x2 − nA ,
q x1
(5.2)
2sg (−k1 x2 x3 +k2 x24 )
ẋ3 = u2 cB0 − x1 x3 − nB ,
q x1
2
ẋ4 = − 2sg x4 + nC (−k1 x2 x3 +k2 x4 ) .
x1 x1
5.1.3. Electricité
On considère un système électrique constitué d'une résistance R, d'une in-
ductance L et d'une capacité C montées en triangle. On note respectivement
Equations diérentielles ordinaires 169
5.1.4. Electronique
dus due R4 R3 R1 C R6
Ti = k(ue + Ti ), Ti = , k= .
dt dt R5 R2 R4 R1 C
5.1.5. Electrotechnique
Pour un moteur pas à pas ayant au rotor n dents de polarité Nord et autant
de polarité Sud, les diérents bilans électromagnétiques (dans le repère dq , dit
170 Mathématiques pour les systèmes dynamiques
de Park) donnent :
did
Ld = vd − Rid + nLq ωiq ,
dt
diq
Lq = vq − Riq − nLd ωid − nmir ω,
dt
Cem = n(Ld − Lq )id iq + nmir iq + Kd sin(nθ),
5.1.6. Mécanique
Si un système mécanique est constitué de n éléments reliés entre eux par des
liaisons parfaites (sans frottement), on aura la position du système qui dépen-
dra de n paramètres indépendants (coordonnées généralisées notées q1 , . . . , qn ).
Pour écrire les équations d'Euler-Lagrange, il faut déterminer le lagrangien (dif-
férence entre l'énergie cinétique et l'énergie potentielle) :
L = Ec − Ep , (5.4)
le travail élémentaire de chaque force interne et externe Di , ainsi que le travail
des forces de frottement :
∂D
− dqi ,
∂ q̇i
donnant lieu à l'énergie dissipée D. On obtient alors le système d'équations
d'Euler-Lagrange :
d ∂L ∂L ∂D
( )− + = Di . (5.5)
dt ∂ q̇i ∂qi ∂ q̇i
Si de plus on tient compte d'un frottement sec, on peut voir apparaître une
discontinuité sur θ̈ (qui peut ne pas être dénie à vitesse nulle). Aussi, pour ce
type de modèle, on est amené à préciser la notion de solution et à donner des
conditions susantes d'existence et/ou d'unicité de solution : ceci sera l'objet
de la section 5.3, qui développera plus particulièrement les EDO du premier
ordre. Les EDO sous forme implicite seront abordées à la section 5.2. Au-delà
des conditions d'existence, il est important pour l'automaticien de pouvoir ca-
ractériser les comportements asymptotiques de ces solutions (la section 5.4
concernera les points d'équilibre, attracteurs étranges, etc. ; la section 5.5 trai-
tera du cas particulier des systèmes linéaires) et de disposer d'outils d'analyse
permettant de les localiser et de caractériser l'évolution temporelle des solu-
tions vers ces ensembles (sections 5.6, 5.7 et 5.8). Enn, de nombreux systèmes
physiques font intervenir, dans la description de leurs dynamiques au moyen
des EDO, des paramètres dont les variations peuvent conduire à des modica-
tions qualitatives des solutions (bifurcations et, parfois, catastrophes ) : ceci
fera l'objet de la section 5.9.
5.2.1. Dénitions
Une EDO sous forme implicite est une relation :
dy dk y
F t, y, , . . . , k = 0, y ∈ Rm , (5.7)
dt dt
où la fonction F est dénie sur un ouvert de R × Rm(k+1) à valeur dans Rm .
L'ordre de l'EDO est l'entier k correspondant à la dérivée d'ordre le plus élevé
apparaissant dans (5.7). Notons que (5.1), (5.2) et (5.6) sont des EDO d'ordres
respectifs 1, 1 et 2. Le théorème de la fonction implicite garantit que ce système
(5.7) de m équations peut se mettre (localement) sous forme explicite :
dk y dy dk−1 y
= G t, y, , . . . , , (5.8)
dtk dt dtk−1
à condition que :
det (JF ) 6= 0,
où JF est la matrice jacobienne de F c'est-à-dire la matrice constituée des
éléments aij = ∂F i
d k xj
, (i, j) ∈ {1, . . . , m}2 .
∂
dtk
∂z (t0 ,x0 ) ) 6= 0, alors il existera p solutions locales dites régulières,
Si det( ∂F
solutions de F (t, x, ẋ) = 0, x(t0 ) = x0 . Par contre, si det( ∂F
∂z (t0 ,x0 ) ) = 0, alors
on ne peut rien armer sans faire une étude approfondie et toute solution
sera dite singulière. Par exemple y : t 7→ t2 /4, est une solution singulière
.
de l'équation ẏ 2 − tẏ + y = 0 au voisinage de (y, y) = (0, 0). Par ailleurs,
y : t 7→ sin(arcsinh(t)) est une solution régulière de (1 + t2 )ẏ 2 + (−1 + y 2 ) = 0
au voisinage de (0, 0).
Equation de Bernouilli
l'EDO :
1 dy
+ f (t)y + g(t) = 0,
1 − r dt
qui est linéaire du premier ordre en y .
Exemple 2. La résolution de l'équation dx dt + sin(t)x + sin(t)x = 0, en posant
4
y = x , se ramène à celle de
−3
− 3 dt + sin(t)y + sin(t) = 0, qui admet pour
1 dy
Equation de Riccati
l'intégration étant prise au sens de Lebesgue [RIC 01] et ce, même si t 7→ f (t, .)
n'est pas continue en t (cas intéressant en automatique, car pour ẋ = g(t, x, u)
un retour u = u(t) discontinu peut être envisagé). Ainsi, on cherchera des
fonctions au moins absolument continues5 par rapport au temps.
placée par la donnée de n valeurs φσ(i) (ti ) aux instants ti donnés, i ∈ N = {1, . . . , n},
σ : N → N.
3 C'est-à-dire pour tous les temps t ∈ T \ M, M étant un ensemble de mesure nulle, avec
φ : R → R,
x0 xmax
t 7→ φ(t; 0, x0 ) = . (5.14)
x0 + e−axmax t (xmax − x0 )
Dénition 2. La solution de (5.11) peut être représentée dans deux espaces :
soit dans l'espace d'état étendu I × X ou espace du mouvement, dans ce
cas, on parle de mouvement ou de trajectoire,
soit dans l'espace d'état X , dans ce cas, on parle d' orbite.
On appelle portrait de phase l'ensemble de toutes les orbites munies de leurs
sens de parcours temporel.
Bien souvent, par commodité on ne représente que les ensembles de points
d'accumulation vers lesquels les orbites convergent pour des temps très grands
(positifs ou négatifs). Par exemple, pour le système :
dx 1 − x21 − x22 −1
= x, t ∈ R, x ∈ R2 , (5.15)
dt 1 1 − x21 − x22
Existence
Le problème de Cauchy (PC) n'a pas forcément de solution et, parfois, peut
en avoir plusieurs. En eet, le système :
dx 1
= |x| 2 , x ∈ R, (5.16)
dt
x(0) = 0,
admet une innité de solutions dénies par :
ε ∈ R+ , φε : R → R,
0 si t0 − ε ≤ t ≤ t0 + ε,
(t−t0 −ε)2
t 7→ φε (t) = 4 si t0 + ε ≤ t, (5.17)
2
− (t−t04+ε) si t ≤ t0 − ε.
A2) f soit mesurable en t pour tout x xé, continue en x pour t xé et telle
que, sur T , on ait kf (t, x)k ≤ m(t), où m est une fonction positive Lebesgue-
intégrable sur |t − t0 | ≤ a.
Alors, il existe au moins une solution (absolument continue) au problème de
Cauchy dénie sur au moins un intervalle [t0 − α, t0 + α], α ≤ a.
On peut même montrer l'existence de deux solutions, l'une dite supérieure
et l'autre, inférieure, telles que tout autre solution soit comprise entre ces deux
solutions [FIL 88, LAK 69].
Cas B) Si la fonction f est continue en (t, x), alors il y a existence de solutions
de classe C 1 .
Théorème 2 (de Peano, v.1886). [COD 55] Supposons que :
B1) f soit dénie pour tout t sur un tonneau T déni par (5.18),
B2) f soit continue sur T déni par (5.18).
Alors il existe au moins une solution au problème de Cauchy de classe C 1 dénie
sur au moins un intervalle [t0 − α, t0 + α], α = min(a, maxT kfb (t,x)k ).
La preuve est basée sur les approximations d'Euler. Ce sont les lignes poly-
gonales (voir la gure 5.4) dénies par :
φ0 = x0 ,
φ (t) = φn (ti−1 ) + f (ti−1 , φn (ti−1 ))(t − ti−1 ), ti−1 < t ≤ ti ,
n
ti = t0 + ni α, i = {0, . . . , n},
dφ0n
φ est donc solution de (5.13) puisque limn→+∞ dt (v) − f (v, φ0n (v)) = 0.
à l'université de Saint-Pétersbourg (où il est élève de P.L. Tchebychev), il est assistant puis
professeur à l'université de Kharkov. En 1902, il est nommé professeur à l'université de Saint-
Pétersbourg.
7 On notera A\B la diérence ensembliste de A et B : A\B = {x ∈ A : x ∈ / B}.
180 Mathématiques pour les systèmes dynamiques
5.3.2. Classication
Dénition 4. L'équation (5.11) est dite autonome si la variable temporelle
n'apparaît pas explicitement dans l'EDO :
dx
= g(x), t ∈ I, x ∈ X.
dt
Dans le cas contraire, elle est dite non autonome.
Si l'on connaît les solutions d'une EDO autonome passant à un instant
t donné par un point x donné, alors on obtient toutes les solutions passant
par ce même point à d'autres instants par simple translation temporelle des
premières. Donc, une EDO autonome ne peut servir qu'à modéliser des phéno-
mènes physiques indépendants du temps initial (chute d'un corps, etc.). Notons
au passage que la longueur de I(t0 , x0 ) ne dépend pas de l'instant initial.
Dénition 5. On dit qu'un champ de vecteurs non linéaire non autonome
f (t, x) est T −périodique s'il existe un réel T > 0 tel que pour tout t et pour
tout x : f (t + T, x) = f (t, x).
Dans ce cas, si l'on connaît les solutions pour un intervalle de longueur T ,
on aura toutes les autres par translation temporelle.
Pour de tels systèmes, on peut noter que, au bout d'un temps inni, les
diérentes variables dénissant le vecteur x :
1. soit convergent vers un vecteur (le vecteur x évoluant vers un vecteur xe
dit point d'équilibre ),
2. soit divergent (la norme de x devient inniment grande),
3. soit ont un comportement oscillatoire : lorsqu'on observe leurs évolu-
tions les unes en fonction des autres, elles évoluent sur une courbe fermée
(comme le cercle) : c'est ce qu'on appelle un cycle fermé (exemples : cycle
économique, population cyclique, masse attachée à un ressort, etc.).
Φtg : X → X ,
x0 7→ φ(t; 0, x0 ).
On en déduit, ∀t ∈ R, ∀x0 ∈ X :
Φtg (x0 ) = Φ−t
−g (x0 ), (5.23)
Φtg ◦ Φ−tg = Φt−t
g = Id, (5.24)
t −1 −t
(Φg ) = Φg = Φt−g . (5.25)
1. (5.19) admet une unique solution dénie sur [t0 , +∞[ au problème de
Cauchy,
2. g(xe ) = 0.
Par la suite, on considèrera que le point d'équilibre est l'origine : en eet,
l'étude de (5.19) au voisinage d'un point d'équilibre xe se ramène, par le chan-
gement de coordonnées y = x − xe , à l'étude de ẏ = g(y + xe ), ayant pour
équilibre (y = 0).
Exemple 5. Le système de Volterra-Lotka est un modèle simple de lutte de
deux espèces. En 1917, donc pendant la guerre, le biologiste Umberto d'Ancona
constata une augmentation du nombre de sélaciens (requins) dans la partie nord
186 Mathématiques pour les systèmes dynamiques
avec α, β, γ, δ des réels positifs. Dans ce cas, les variables d'état s'introduisent
de façon naturelle : x, y . On peut a priori supposer que l'espace d'état est le
quart de plan R2+ . Le théorème 3 permet de garantir l'existence et l'unicité
des solutions et le théorème 7, l'existence de deux équilibres : (0, 0) et ( βδ , αγ ).
En séparant les variables selon : x(α−γy)dx dy
= y(−β+δx) , on peut montrer que
H(x, y) = [α ln(y) − γy] + [β ln(x) − δx] est une fonction constante le long
des solutions de (5.30). On montre ainsi que, pour toute condition initiale
strictement incluse dans le quart de plan strictement positif, les orbites du
système sont fermées. De plus les solutions sont dénies sur R : on obtient un
ot dont le portrait de phase est représenté sur la gure 5.5 (simulation pour
α = β = γ = δ = 1).
Les orbites sont centrées autour du point d'équilibre ( βδ , αγ ). Avant la guerre,
l'activité de la pêche était plus importante (on tient compte des prélèvements
de la pêche −qx x et −qy y dans (5.30), avec qx , qy positifs) : c'est-à-dire
que le couple de paramètres (α, −β) est remplacé par (α − qx , −β − qy ), donc
le point d'equilibre ( βδ , αγ ) est remplacé par ( β+q
δ , γ ). Ce qui explique un
y α−qx
L'étude des systèmes non linéaires met en évidence des orbites particulières :
1. les orbites fermées qui sont une extension des points xes puisque, si on
laisse évoluer un système à partir d'une condition initiale appartenant à
cette orbite, alors il continuera à évoluer sur cette orbite ;
9 Si g est un champ de vecteur sur Rn , alors sa jacobienne au point x est la matrice
∂gi
∂xj
(x) .
188 Mathématiques pour les systèmes dynamiques
Ensembles limites
Des notions plus précises ont étés introduites pour cerner les informations
pertinentes et rémanentes après dissipation d'un éventuel transitoire. C'est le
rôle des ensembles limites. Rappelons que I(t0 , x0 ) =]α(t0 , x0 ), ω(t0 , x0 )[ est
l'intervalle de dénition de la solution maximale associée à (t0 , x0 ).
Dénition 13. L' ensemble ω-limite par rapport à une condition initiale
(t0 , x0 ), noté Ωf (t0 , x0 ), est déni par :
Ωf (t0 , x0 ) = {y ∈ X : il existe une suite {ti } dans I(t0 , x0 ) :
lim ti = ω(t0 , x0 ) et lim φ(ti ; t0 , x0 ) = y}.
i →+∞ i →+∞
10
Un homéomorphisme est un morphisme continu. Ainsi, une courbe de Jordan est une
courbe obtenue par transformation continue à partir du cercle.
Equations diérentielles ordinaires 189
Figure 5.6. Orbite fermée périodique pour l'oscillateur de Van der Pol (5.31)
L' ensemble α-limite par rapport à une condition initiale (t0 , x0 ), noté
Af (t0 , x0 ), est déni par :
Ces notions Ωf (t0 , x0 ) et Af (t0 , x0 ) ont tout d'abord été introduites par
G.D. Birkho ([BIR 27] p. 197, 198). Lorsque ω = +∞ (respectivement,
α = −∞), l'ensemble ω -limite (respectivement, α-limite) est aussi appelé
l'ensemble limite positif (respectivement, négatif ), parfois noté Λ+ f (t0 , x0 ) (res-
pectivement, Λ−f (t 0 , x0 )) (voir par exemple [BHA 70] p. 19). Pour un champ de
vecteurs non linéaire autonome g associé à (5.19) et générant un ot global, on
190 Mathématiques pour les systèmes dynamiques
a la relation suivante :
Λ− − + +
−g (t0 , x0 ) = Λ−g (x0 ) = Λg (x0 ) = Λg (t0 , x0 ).
Ωg (x0 ) = {x ∈ Ω : ∃{ti }i∈N ⊂ I(x0 ) : lim ti = ω(x0 ) et lim Φtgi (x0 ) = x}.
i→∞ i→∞
(5.32)
Dans le cas général (5.11), on a le résultat qui suit.
Théorème 8. Si, pour x0 ∈ X et t0 ∈ I donnés, il existe une solution au
problème de Cauchy et si l'orbite issue de x0 à t0 (ni) est contenue dans un
ensemble compact de X , alors Ωf (t0 , x0 ) et Af (t0 , x0 ) sont des sous-ensembles
compacts, non vides, connexes de X .
Ensembles non-errants
La notion de point non-errant, plus ne que celle d'ensemble limite, fut
également introduite par G.D. Birkho [BIR 27] pour décrire les comporte-
ments asymptotique plus complexes (attracteur étrange par exemple). Elle
concerne principalement les systèmes autonomes régis par (5.19) pour lesquels
I(x0 ) =]α(x0 ), +∞[ contient l'instant initial.
Dénition 14. Un point x ∈ X est dit non-errant pour le système (5.19) si,
pour tout voisinage V(x) de ce point et tout T > 0, il existe un temps t > T tel
que : φ(t; 0, x) ∩ V(x) 6= ∅. L'ensemble constitué de tels points est dit ensemble
non-errant.
5.4.2. Propriétés
Invariance
Supposons que φ(t; x0 ) soit bornée. Alors C = Φtg (x0 ) est compact et
on prend une suite d'instants {ti }i∈N : limi→∞ ti = ω(x0 ). On a donc une
suite de points Φtgi (x0 ) ∈ C, d'où, d'après le théorème de Bolzano-Weierstrass
0
[RIC 01], on peut extraire une sous-suite convergente vers x : limi Φtgi (x0 ) = x.
0
Or Φtgi (x0 ) ∈ Φtgi (x0 ), donc x ∈ Ωg (x0 ). De plus, Ωg (x0 ) est fermé borné,
donc compact. Montrons qu'il est connexe : si Ωg (x0 ) n'est pas connexe,
∃(A, A0 ) disjoints fermés : Ωg (x0 ) = A ∪ A0 (donc A, A0 compacts). Soit
x ∈ A : ∃{ti }i∈N ⊂ I(x0 ), limi→∞ ti = ω(x0 ) et limi→∞ Φtgi (x0 ) = x. Soit
t0
x0 ∈ A0 : ∃{t0i }i∈N ⊂ I(x0 ), limi→∞ t0i = ω(x0 ) et limi→∞ Φgi (x0 ) = x0 . Mais
alors, pour tout i, [ti , t0i ] est (compact) connexe et, Φtg (x0 ) étant continue, on
0 00
a Φ[tg i ,ti ] (x0 ) connexe : d'après [SCH 95] (p. 256), ∃t00i ∈ [ti , t0i ] : Φtgi (x0 ) ∈
/ A (ni
00
à A0 ) mais limi→∞ t00i = ω(x0 ) et limi→∞ Φtgi (x0 ) ∈ Ωg (x0 ). Enn, il est inva-
riant : x ∈ Ωg (x0 ), ∃{ti }i∈N ⊂ I(x0 ), limi→∞ ti = ω(x0 ) et limi→∞ Φtgi (x0 ) = x,
donc limi→∞ Φt+t g
i
(x0 ) = Φtg (x) : Φtg (x) ∈ Ωg (x0 ).
Attractivité
c'est-à-dire :
∀ε > 0, ∃T (t0 , x0 , ε) > 0 : ∀t ≥ t0 + T (t0 , x0 , ε), ρ(φ(t; t0 , x0 ), A) ≤ ε.
Cette notion peut être formulée en termes de voisinages. Par exemple, pour
tout t0 ∈ J et tout V(A) voisinage de A, il existe W(t0 , V) un voisinage de A tel
que, pour toute trajectoire issue de ce voisinage W(t0 , V) à l'instant t0 , il existe
un temps T (t0 , x0 , V) > 0 tel que la trajectoire évolue dans W(t0 , V) sans en
sortir à partir de l'instant t0 + T (t0 , x0 , V) (voir gure 5.11). Cependant, pour
t0 et V(A) un voisinage de A donnés, il est utile de connaître le plus grand de
ces voisinages W(t0 , V) que l'on notera Da (t0 , V, A) : ceci conduit à la notion
de domaine d'attractivité, intersection des Da (t0 , V, A) (sur les V ).
Dénition 21. Pour (5.11), Da (t0 , A) est le domaine d'attractivité de A par
rapport à t0 pour (5.11) si :
Stabilité asymptotique
L'origine (0, 0) est un équilibre instable (pour le monter, on pourra utiliser les
résultats du paragraphe 5.7.7) et l'équilibre (1, 0) est attractif mais instable : le
portrait de phase est donné gure 5.12.
Stabilité exponentielle
Stabilité pratique
réelles négatives et dilatations dans les directions associées aux valeurs propres de A à parties
réelles positives.
Equations diérentielles ordinaires 201
X i −1
r nX
f (A) = f (j) (λi )Zij ,
i=1 j=0
ẋ = Ax + b, (5.42)
Distance de Whitney
j
∂ g1i (x) ∂ j g2i (x)
ρ1S (g1 ; g2 ) = max sup
∂xj −
: i = 1, ..., n : j = 0, 1 .
x∈S ∂xj
Équivalence
Stabilité structurelle
Dénition 31. Le système (5.19) est structurellement stable dans S s'il existe un
ε−voisinage de g au sens C 1 sur S ⊂ X , tel que, pour tout champ gp de ce voisinage,
les systèmes (5.43) associés à gp et (5.19) sont topologiquement équivalents.
Il existe, comme nous allons le voir, un lien entre la stabilité structurelle et les
ensembles non errants.
Equations diérentielles ordinaires 205
Dans le plan, les ensembles non errants qui peuvent exister sont : les points d'équi-
libre, les orbites fermées, les orbites homocliniques ou hétérocliniques. Par contre, sur
le tore (C1 × C1 , C1 étant le cercle unité), cela n'est plus le cas ; il sut de remarquer
que pour le système : dθ
= a,
dt
dψ (θ, ψ) ∈ C1 × C1 , (5.44)
dt
= b,
lorsque ab est irrationnel on obtient des orbites non périodiques denses dans le tore :
le tore est donc à lui seul un ensemble non-errant. De plus, lorsque ab est rationnel,
on obtient des orbites périodiques. Or, tout irrationnel pouvant être approché par
un rationnel avec une précision arbitraire, on en conclut que le système (5.44) est
structurellement instable pour toutes les valeurs de a et de b. En évitant cette patho-
logie (voir point 3 du théorème suivant), on obtient une caractérisation des systèmes
structurellement stables sur une variété de dimension deux.
Théorème 10 (de Peixoto). Soit g un champ de vecteurs de classe C r (X ), où X
est une variété de dimension 2. Le système (5.19) est structurellement stable si et
seulement si :
Cette section a pour but d'établir les relations liant les comportements locaux
d'une EDO non linéaire autonome (5.19) à ceux de l'EDO linéaire autonome suivante :
dx
= Ax, x ∈ X, (5.45)
dt
sous l'hypothèse :
X = Rn et
(H) ∀x0 condition initiale, (5.19) a une et une seule
solution maximale dénie sur I(x0 ) = I = R.
12 En dimension deux, un point-selle est un point d'équilibre instable dont la jacobienne
possède une valeur propre à partie réelle strictement négative et l'autre à partie réelle stric-
tement positive.
206 Mathématiques pour les systèmes dynamiques
Les méthodes d'étude locales sont basées sur un résultat fondamental de stabilité
structurelle (voir paragraphe 5.6.2) qui permet de ramener l'étude locale de (5.19) à
celle d'un système du type (5.45). Cette étude locale se fait au voisinage d'éléments
dits critiques : points d'équilibres, orbites fermées.
ns + nc + ni = n,
Es (A) ⊕ Ec (A) ⊕ Ei (A) = Rn .
On peut noter qu'une partition similaire est possible si X est une variété de di-
mension n, puisqu'alors X est localement diéomorphe à Rn . Lorsque σ c (A) = ∅, A
est hyperbolique, conformément à la dénition 9. De même, (5.45) est asymptotique-
ment stable si et seulement si σ(A) = σ s (A), σc (A) = σi (A) = ∅ ; dans ce cas, A est
dite asymptotiquement stable ou hurwitzienne.
Théorème 11 (Première méthode de Liapounov). Soit xe un équilibre de
(5.19), auquel est associé le linéarisé (5.45).
1. σi (A) = σ c (A) = ∅ ⇒ xe est asymptotiquement stable pour (5.19),
2. σi (A) 6= ∅ ⇒ xe est instable pour (5.19).
Ainsi, si l'origine est asymptotiquement stable pour le linéarisé, alors elle est
localement asymptotiquement stable pour le système non linéaire.
Corollaire 3. Sous l'hypothèse (H) et si A est hyperbolique, alors (5.45) est struc-
turellement stable.
Dans ce cas, on dit aussi que A est structurellement stable et on a : [A est
hyperbolique] ⇔ [A est structurellement stable]. Notons que l'hypothèse (H) est fon-
damentale, comme le montre l'exemple (5.16). Une conséquence immédiate est la
suivante ([REI 82] p. 99).
Théorème 12. Sous l'hypothèse (H), si (5.19) possède un point d'équilibre hyperbo-
lique xe , alors il existe un voisinage V(xe ) de xe tel que (5.19) soit structurellement
stable dans V(xe ).
Equations diérentielles ordinaires 207
Wloc i (xe ) = {x ∈ V(xe ) : lim Φtg (x) = xe et Φtg (x) ∈ V(xe ), ∀t > 0},
t→−∞
Ces notions de variétés stable et instable exhibent donc des solutions de (5.19) qui
sont respectivement contractantes et dilatantes . Les variétés Ws (xe ), Wi (xe )
sont les images par h des sous-espaces correspondants sur le linéarisé : Ws (xe ) =
h[Es (Jg (xe ))], Wi (xe ) = h[Ei (Jg (xe ))].
Théorème 14 (de la variété stable). Si (5.19) a un point d'équilibre hyperbolique
xe , alors il existe Ws (xe ) et Wi (xe ) :
1. de dimension ns et ni identiques à celles des espaces Es (Jg (xe )) et Ei (Jg (xe ))
du système linéarisé (5.45) (avec A = Jg (xe )),
2. tangentes à Es (Jg (xe )) et à Ei (Jg (xe )) en xe ,
3. invariantes par le ot Φtg .
De plus, Ws (xe ) et Wi (xe ) sont des variétés aussi régulières que g (de même classe r
que g ∈ C r (Rn )).
Dans le cas, dit critique, de points non hyperboliques (dégénérés), il a été montré
le résultat suivant (voir [GUC 83] p. 127).
Théorème 15 (de la variété centre, Kalley 1967). Soit g un champ de vecteurs
de classe C r (Rn ), admettant un point d'équilibre dégénéré xe . Soit A = Jg (xe ). Alors,
il existe :
1. Ws (xe ) et Wi (xe ) des variétés invariantes dites respectivement stable et instable
de classe C r , tangentes à Es (Jg (xe )) et à Ei (Jg (xe )) en xe ;
2. Wc (xe ) une variété centre de classe C (r−1) tangente à Ec (Jg (xe )) en xe .
Les variétés Ws (xe ), Wi (xe ) et Wc (xe ) sont toutes invariantes par le ot Φtg et
de même dimension que les sous-espaces correspondants du système linéarisé (5.45)
(Es (Jg (xe )), Ei (Jg (xe )) et Ec (Jg (xe ))). Les variétés stable Ws (xe ) et instable Wi (xe )
sont uniques, alors que Wc (xe ) ne l'est pas forcément.
208 Mathématiques pour les systèmes dynamiques
Cependant, de façon pratique, il est délicat d'obtenir ces variétés, même de façon
numérique : souvent, le seul recours pour la détermination d'une variété centre est de
faire un développement en série de Taylor de Wc (xe ) au voisinage du point dégénéré
xe : cette méthode est connue depuis longtemps puisque A.M. Liapounov l'a utilisée
en 1892 pour étudier les cas critiques [LIA 92].
Pour des raisons de simplication, on eectue un changement de coordonnées sur
le système initial (5.19) pour se ramener au cas où le point d'équilibre est l'origine.
On va regarder ce qui se passe dans le cas le plus intéressant en pratique, c'est-à-dire
Wi (0) vide. Le théorème de la variété centre nous dit que le système initial (5.19) est
topologiquement équivalent à :
dxc
dt
= Ac xc + g1 (x),
dxs
dt
= As xs + g2 (x),
avec Ac de dimension nc correspondant à Ec (Jg (0)) et qui a donc toutes ses valeurs
propres à partie réelle nulle. As est de dimension ns correspondant à Es (Jg (0)), donc
asymptotiquement stable. On peut exprimer Wc (0) sous la forme d'une hypersurface :
Wc (0) = {(xc , xs ) ∈ Rnc × Rns : xs = k(xc )}.
De plus, on sait que Wc (0) contient 0 (donc k(0) = 0) et, en ce point, est tangent à
Ec (Jg (0)) (donc Jk (0) = 0). On a :
dxs dxc
xs = k(xc ) ⇒ = Jk (xc ) ,
dt dt
donc :
As xs + g2 (xc , k(xc )) = Jk (xc ) (Ac xc + g1 (xc , k(xc ))) , (5.46)
k(0) = 0, Jk (0) = 0. (5.47)
On étudie la projection du champ de vecteurs de xs = k(xc ) sur Ec (Jg (0)) :
dxc
= Ac xc + g1 (xc , k(xc )), (5.48)
dt
en tenant compte de (5.46) et de (5.47). Ce qui nous conduit au théorème suivant
(voir [GUC 83] p. 131).
Théorème 16 (de Henry et Carr, 1981). Si :
1. Wi (0) est vide,
2. l'équilibre xec = 0 de (5.48) est localement asymptotiquement stable (respecti-
vement instable),
alors l'équilibre xe de (5.19) est asymptotiquement stable (respectivement instable).
La résolution de (5.48) étant en général impossible, le théorème suivant [GUC 83]
permet d'étudier la stabilité locale de l'équilibre xec = 0 par approximation de k.
Théorème 17 (de Henry et Carr, 1981). S'il existe ψ : Rnc → Rns avec ψ(0) = 0
et Jψ (0) = 0, telle que, lorsque x → 0 :
Jψ (xc )[Ac xc + g1 (xc , ψ(xc ))] − As ψ(xc ) − g2 (xc , ψ(xc )) = o(xr ), r > 1, (5.49)
alors h(xc ) = ψ(xc ) + o(x ), lorsque x → 0.
r
Equations diérentielles ordinaires 209
Cette technique permet, dans beaucoup de cas, de conclure sur la stabilité asymp-
totique d'un équilibre dégénéré.
Exemple 10. Soit le système diérentiel (x, y) ∈ R2 :
dx
= −x2 + xy, (5.50)
dt
dy
= −y + x2 .
dt
On a :
−2x + y x
Jg (x, y) = ,
2x −1
et le système présente deux points d'équilibre :
0 0 0
ze1 = , dégénéré, Jg (ze1 ) = ,
0 0 −1
1 −1 1
ze2 = , instable, Jg (ze2 ) = .
1 2 −1
Pour l'origine, les valeurs propres associées à la jacobienne sont 0 et −1 (on a Ac =
0, As = −1). On cherche alors la variété centre associée à ce point d'équilibre par son
développement à l'ordre 3 : k(x) = ax2 + bx3 + o(x3 ), puisque k(0) = Jk (0) = 0. Ce
développement doit vérier (5.49), donc :
[2ax + 3bx2 + o(x2 )][−x2 + (ax3 + bx4 + o(x4 ))] = [(1 − a)x2 − bx3 + o(x3 )],
et, en égalant les termes de même degré, on obtient a = 1, b = 2, soit : k(x) =
x2 + 2x3 + o(x3 ). Donc (5.48) devient ẋ = −x2 + x3 + o(x3 ) et le théorème 16 permet
de conclure à l'instabilité l'origine. Remarquons que le même résultat peut être obtenu
plus intuitivement et sans trop de calcul, en notant que la seconde ligne (en y ) de
(5.50) converge beaucoup plus vite (exponentiellement) que la première (en x) : on
peut donc considérer qu'après un transitoire, dy dt
= 0 = −y + x2 , soit y = x2 : on
retrouve la variété centre k(x) = x + o(x ). Ceci est justié par le théorème 33.
2 2
Polytechnique en 1873, ingénieur au corps des Mines en 1877, il enseigne à la faculté des
sciences de Caen puis à la Sorbonne en 1881.
14
Les résultats que nous venons de voir concernant les points d'équilibre pour une EDO
(5.19) peuvent être transposés aux points xes pour une équation de récurrence du type
xk+1 = g(xk ).
Equations diérentielles ordinaires 211
P : V(xγ ) ∩ Sγ → Sγ ,
x0 7→ P (x0 ) = ΦTg (x0 ) (x0 ).
Cette construction est justiée puisque sous certaines conditions (par exemple g de
classe C 1 (Rn )) il existe V(xγ ) et une application unique T : V(xγ ) → R, x0 7→ T (x0 ),
tels que ∀x0 ∈ V(xγ ) : ΦTg (x0 ) (x0 ) ∈ Sγ et T (xγ ) = Tγ . Notons que P ne dépend ni de
xγ , ni de Sγ . P engendre un système dynamique discret et possède un point xe xγ
(P (xγ ) = xγ ). Ainsi, cette application ramène l'étude des solutions au voisinage d'une
orbite fermée d'un système dynamique continu déni sur une variété X de dimension
n, à l'étude des solutions au voisinage d'un point xe d'un système dynamique discret
déni sur une variété de dimension n − 1 : xk+1 = P (xk ) = P k (x0). Le comportement
local des solutions du système dynamique discret au voisinage du point xe xγ permet
de déduire le comportement des solutions du système dynamique continu (5.19) au
voisinage de γ .
Notons qu'il existe une grande similitude entre l'étude du comportement local
des solutions d'un système dynamique discret au voisinage du point xe et celui
des solutions du système dynamique continu au voisinage du point d'équilibre. En
particulier, pour étudier le système discret xk+1 = Axk , on partitionne σ(A) en
trois parties σs (A) = {λ ∈ σ(A) : |λ| < 1}, σ c (A) = {λ ∈ σ(A) : |λ| = 1},
σ i (A) = {λ ∈ σ(A) : |λ| > 1}. On obtient alors des résultats similaires à ceux
développés précédemment, permettant d'en déduire la structure locale du ot au
voisinage d'une orbite fermée γ .
Cependant, l'application P ne peut être obtenue de façon explicite que si les solu-
tions de (5.19) peuvent être explicitées : ceci limite l'intérêt pratique de l'application
P qui bien souvent doit être évaluée numériquement.
dr
= r(1 − r 2 ),
dt
θ̇ = 1.
Les premiers travaux sur la stabilité ne retenaient des EDO que leur approximation
linéaire du premier ordre [Routh 1877, Thomson 1879, Joukovsky 1882]. Il fallut
attendre encore quelques années pour que Poincaré et Liapounov justient et étendent
les propriétés locales déduites du modèle linéarisé. L'un des résultats principaux est la
première méthode de Liapounov (voir théorème 11). Cependant elle ne donne aucun
renseignement quantitatif sur le domaine de stabilité asymptotique. Cette lacune fut
contournée, avec la seconde méthode de Liapounov (dite aussi méthode directe), par
l'introduction des fonctions de Liapounov . D'une part, ces fonctions sont analogues
à des distances entre l'état du système le long de sa trajectoire et l'ensemble d'équilibre
étudié (point d'équilibre, trajectoire, etc.). D'autre part, ces fonctions ont une relation
directe avec la physique des systèmes, puisque très souvent elles correspondent à
l'expression de l'énergie totale qui, si le système est dissipatif, décroît au cours du
temps an que le système rejoigne une conguration à énergie minimale (s'il n'y a
pas d'apport d'énergie).
Par exemple, le pendule pesant dont un modèle est donné par :
δ g
θ̈ = − θ̇ − sin(θ), (5.51)
ml2 l
(l, m, g, δ positifs), présente deux équilibres (voir paragraphes 5.4.1 et 5.4.2). Seule la
position basse est stable : elle correspond à une conguration à énergie minimale. En
eet, l'énergie totale du système est :
1 2 2
V (θ, θ̇) = ml θ̇ + mgl(1 − cos(θ)), (5.52)
2
(notons que V (θ = 0, θ̇ = 0) = 0 et que V (θ, θ̇) > 0 pour (θ, θ̇) 6= (0, 0). Ceci conduit
à:
dV δ g 2
= ml2 (− 2 θ̇ − sin(θ))θ̇ + mgl sin(θ)θ̇ = −δ θ̇ ≤ 0, (5.53)
dt ml l
ce qui montre que l'énergie du système décroît au cours du temps : le système tend
bien à rejoindre une conguration à énergie minimale.
Ces fonctions de Liapounov trouvent leur utilité dans le problème de l'estimation
du domaine de stabilité asymptotique d'un ensemble A. Ce problème revient à trouver
une fonction de Liapounov V (x) s'annulant sur A et dont la dérivée le long des
solutions est négative à l'intérieur d'un certain voisinage de A (voir gure 5.15). On
peut donc l'aborder de deux façons :
soit on se donne une fonction de Liapounov s'annulant sur A et on cherche dans
quel domaine elle décroît,
soit on se donne une expression de la dérivée et on cherche alors la fonction de
Liapounov correspondante.
La première approche est parfois utilisée conjointement avec le principe d'inva-
riance de J.P. La Salle (voir paragraphe 5.7.5), alors que la seconde correspond plus
à l'état d'esprit des méthodes de V.I. Zubov (voir paragraphe 5.7.4). Dans tout les
cas, l'idée remarquable est que l'équation du mouvement de l'état x(t) n'a pas à être
résolue pour caractériser l'évolution de V (x) : la connaissance du modèle de l'EDO
(donc de la vitesse ẋ) doit sure.
Equations diérentielles ordinaires 213
avec celle d'une matrice carrée dénie positive (page 335), c'est-à-dire dont les valeurs propres
λi sont réelles strictement positives, ou semi-dénie positive lorsque λi ≥ 0.
16 Certains auteurs nomment fonction candidate une telle fonction, celle-ci ne devenant une
quelconque ε, εmin ≥ ε > 0, Vε+l est compact et donc, V̇ étant continue, elle admet
sur Vε+l un maximum noté −m. Soit x0 ∈ Vε+l , φtf (x0 ) ∈ Vε+l , il vient :
Z ∞
lim V (φtf (x0 )) = l = V (x0 ) + V̇ (t)dt ≤ V (x0 ) − m lim (t) < 0.
t→∞ 0 t→∞
En prenant V (x) = 12 (x21 + x22 ), on obtient V̇ = (x21 + x22 − 1)(x21 + x22 ). On en conclut
que l'origine est localement asymptotiquement stable.
Théorème 19. Soient l'EDO (5.19), E un voisinage de A et V une fonction de
Liapounov pour A continûment diérentiable. On introduit les conditions suivantes :
dV ∂V
(C1) = Lg V (x) = g(x) ≤ 0, ∀x ∈ E, (5.55)
dt (5.19) ∂x
∂V
(C2) g(x) = 0 ⇔ x ∈ A. (5.56)
∂x
1. Si (C1) est vraie pour un voisinage E de A, alors A est localement stable.
2. Si V est radialement non bornée et si (C1) est vraie pour E = X l'espace d'état,
alors A est globalement stable.
3. Si (C1) et (C2) sont vraies dans un voisinage E de A, alors A est localement
asymptotiquement stable et une estimation de son domaine de stabilité asymp-
totique est le plus grand Vc = {x ∈ X : V (x) < c} inclus dans E .
4. Si V est radialement non bornée et si (C1) et (C2) sont vraies pour E = X
l'espace d'état, alors A est globalement asymptotiquement stable.
Exemple 15. Si l'on considère (5.15) et A = {x ∈ R2 : (x21 + x22 ) ≤ 1} (le disque
unité), alors en prenant V (x) = x21 + x22 − 1 pour x ∈ R2 \A et V (x) = 0 pour x ∈ A,
on obtient V̇ = (1 − x21 + x22 )(x21 + x22 ) si x ∈ R2 \A et V̇ = 0 si x ∈ A. On en conclut
que A est globalement asymptotiquement stable.
D'après le paragraphe 5.7.1, on peut reformuler ce résultat à l'aide de fonctions
de comparaison, comme suit.
Théorème 20. Soient l'EDO (5.19), E un voisinage de A, V une fonction continû-
ment diérentiable et α1 , α2 , α3 trois fonctions telles que, ∀x ∈ E :
α1 (ρ(x, A)) ≤ V (x) ≤ α2 (ρ(x, A)),
dV
= Lg V (x) ≤ −α3 (ρ(x, A)),
dt (5.19)
avec ρ(x, A) = inf (kx − yk).
y∈A
1. Ψ est continue et dénie positive sur X , V est continue et dénie positive sur
D, limkxk→0 V (x) = 0, limkxk→0 Ψ(x) = 0 et :
dV
= Lg V (x) = −Ψ(x)(1 − V (x)), (5.59)
dt
ensemble est invariant (lemme 1), donc Ωg (x0 ) ⊂ I. Pour nir, Φtg (x0 ) étant bornée,
Φtg (x0 ) converge vers Ωg (x0 ) ⊂ I (lemme 1).
Corollaire 4. Si, dans (5.19), g est analytique, alors I = {0} ⇔ {Lkg V (x) = 0, k ∈
N} = {0} (I étant déni dans le théorème 26).
De même, il existe αi quatre K−fonctions telles que pour tout (t, x) ∈ [t0 , ∞[×O :
Si f est autonome (c'est-à-dire si l'on considère une EDO du type (5.19)), alors V
peut être choisie indépendante du temps (V = V (x)).
Théorème 28. [HAH 63, HAH 67] Soit l'EDO (5.11), avec f de classe C 1 . Si l'ori-
gine est un point d'équilibre uniformément asymptotiquement stable, alors il existe un
ouvert O de Rn contenant l'origine et une fonction V : [t0 , ∞[×O → R+ de classe
C 1 , dénie positive, convergeant uniformément en t vers zéro avec la norme de x
et telle que sa dérivée soit dénie négative. Si f est autonome (c'est-à-dire si l'on
considère une EDO du type (5.19)), alors V peut être choisie indépendante du temps
(V = V (x)).
Pour clore cette partie sur les théorèmes réciproques, on notera que les résultats
des théorèmes 24 et 25 donnent des conditions nécessaires et susantes.
Equations diérentielles ordinaires 221
dz
= 2z(−2 + sin(t) + x), si x 6= 0, (5.64)
dt
dz
≤ 2z(−1 + z), (5.65)
dt
z0
0 ≤ z(t) ≤ , (5.66)
z0 + (1 − z0 ) exp(2(t − t0 ))
et il est alors évident que l'équilibre x = 0 de (5.63) est exponentiellement stable. Une
estimation de Dse (0) est ] − ∞, 1[. Par ailleurs, (5.66) reste valable pour x = 0.
Dans cet exemple 21, nous avons utilisé de façon implicite la notion de système
majorant (SM) : en eet, les solutions de (5.65) sont majorées par celles de l'EDO :
dy
dt
= 2y(−1+y) (pour des conditions initiales identiques). De tels systèmes majorants
présentent les propriétés suivantes :
leurs solutions permettent d'obtenir une estimation des comportements du sys-
tème initial ;
ils peuvent inférer une propriété qualitative P pour le système initial et, dans
ce cas, le SM sera dit système de comparaison (SC) pour la propriété P : c'est
le cas dans l'exemple 21 où dydt
= 2y(−1 + y) est un SC pour la propriété P de
stabilité exponentielle pour le système (5.65) ;
ils peuvent ne plus dépendre du temps ni d'éventuelles perturbations aectant
le système initial, ce qui permet de simplier l'étude de leurs solutions ;
ils peuvent être de dimension réduite par rapport à celle du système initial (voir
exemple 22).
17 Etant donné que la dérivée de la fonction signe au point x = 0 n'est pas dénie au
sens classique, nous exclurons ce cas pour la suite (x 6= 0). En fait, en utilisant une notion
plus générale du gradient ou de la dérivée (voir [CLA 83, RIC 01]), nous pourrions obtenir
directement un résultat similaire à celui qui suit.
Equations diérentielles ordinaires 223
où les fonctions vi (x) sont continues, semi-dénies positives et telles que [V (x) =
0 ⇔ x = 0].
224 Mathématiques pour les systèmes dynamiques
Exemple 23. V : R3 → R2+ , x 7→ V (x) = [x21 + x22 , (x2 − x3 )2 + x23 ]T est une FVL,
alors que V : x 7→ [(x1 + x2 )2 , (x2 − x3 )2 ]T n'en est pas une.
Les normes vectorielles [BEL 62, BOR 76, GRU 77, PER 94, PER 95a, BRD 02]
constituent un cas particulier de FVL, présentant l'avantage de permettre une
construction systématique du système majorant. En particulier, en décomposant Rn
en une somme directe :
M
k
Rn = Ei , (5.70)
i=1
Théorème 31. Considérons une des propriétés P dénies aux paragraphes 5.4.2,
5.4.2, 5.4.2, par exemple : stabilité, attractivité, stabilité asymptotique, etc. Sous
les hypothèses conduisant à la construction de (5.74), pour lequel ze est un point
d'équilibre positif de propriété P et ayant un domaine non vide associé DP (ze ), alors
A = {x ∈ Rn : P (x) ≤ ze } a la propriété P , de domaine DP (A) = {x ∈ Rn : P (x) ∈
DP (ze )}.
Exemple 24. Soit le modèle :
ẋ1 = (1 − x21 − x22 )x1 + d12 (t)x2 ,
ẋ2 = (1 − x21 − x22 )x2 + d21 (t)x1 , (5.75)
|dij (t)| ≤ 1, ∀t ∈ R,
où les fonctions dij sont continues par morceaux. Pour la norme vectorielle régulière
P (x) = [|x1 | , |x2 |]T , on obtient :
(1 − p21 (x) − p22 (x)) 1
Dt P (x) ≤ P (x),
1 (1 − p21 (x) − p22 (x))
(g est
quasi
monotone non décroissante) ayant
pour point d'équilibre
positif
: ze =
√ 1 √ 1
2 , permettant de conclure que A = x ∈ Rn : P (x) ≤ 2 est glo-
1 1
balement asymptotiquement stable.
Enn, notons que cette démarche peut être étendue au cas de matrices de fonctions
de Liapounov [DJO 86].
5.8.1. Introduction
Il s'agit ici de simplier l'étude qualitative des solutions d'une EDO (équation
diérentielle ordinaire) du type :
ẋ = f (t, x, ε), x(t0 ) = a(ε), x ∈ Rn (5.76)
où ε est un petit paramètre. Il est de prime abord naturel de comparer les solutions
de (5.76) à celles de :
ẋ = f0 (t, x) = f (t, x, ε = 0), x(t0 ) = a(0). (5.77)
Nous avons vu quelques éléments de réponse au paragraphe 5.6.1 concernant la sta-
bilité structurelle. Sous des hypothèses de régularité de la fonction f (en particulier,
f au moins C 1 en ε) nous verrons comment comparer les solutions de ces deux EDO
226 Mathématiques pour les systèmes dynamiques
dominées au voisinage de zéro par εk : donc qu'il existe une constante positive M > 0
telle que maxi∈{1,...,n} (|gi (ε)|) < M |ε|k sur un voisinage de zéro.
X
i=k X
i=k
x(t, ε) = εi xi (t) + ε(k+1) Rx (t, x)), a(ε) = εi ai + ε(k+1) Ra (t, x).
i=0 i=0
X
i=k
= εi fi (t, x0 (t), x1 (t), . . . , xi (t)) + ε(k+1) R(t).
i=0
Equations diérentielles ordinaires 227
Les solutions exacte et approchée sont alors distantes d'un O(εk ) comme précisé dans
le théorème suivant (voir chapitre 8 [KHA 96] et [KOK 86, OMA 74]).
Théorème 32. Considérons (5.76), (5.78). Si les conditions suivantes sont vériées :
1. f est de classe C k+2 par rapport à (x, ε), pour tout (t, x, ε) ∈ [t0 , t1 ] × D ×
[−ε0 , ε0 ],
2. a(ε) est de classe C k+1 par rapport à ε, pour tout ε ∈ [−ε0 , ε0 ],
3. (5.76) admet une solution unique dénie sur [t0 , t1 ],
alors, il existe ε∗ > 0 tel que, pour tout ε ∈ [−ε∗ , ε∗ ], (5.76) ait une solution unique
dénie sur [t0 , t1 ] et vériant :
X
i=k
x(t, ε) − εi xi (t) = O(εk+1 ). (5.79)
i=0
X
i=k
x(t, ε) − εi xi (t) = O(εk+1 ), (5.80)
i=0
2
avec x1 (0) = 0, y1 (0) = 0. On trouve x1 (t) = 13 cos ωt−2ω cos ωt+1 , y1 (t) =
2
− 23 (sin ωt) cos ωt−1
ω
. On en déduit que x(t, ε) = cos(ωt) + ε3 cos ωt−2ω cos ωt+1 + O(ε2 ),
2ε
y(t, ε) = − sin(ωt) − 3 (sin ωt) cos ωt−1
ω
+ O(ε ), ce que l'on peut vérier sur la gure
2
di(t)
e(t) = Ri(t) + L + ef cem (t),
dt
dωm (t)
Γm (t) = bm ω m (t) + Jm ,
dt
Γm (t) = Ki i(t), ef cem = Kb ω m (t),
5.8.4. Moyennisation
Ici on s'intéresse à des systèmes perturbés pouvant être modélisés par :
ẋ = εf (t, x, ε), (5.96)
avec ε un petit paramètre et f un champ de vecteur T −périodique (voir dénition 5
au paragraphe 5.3.2). Du fait de cette périodicité, on peut calculer le champ moyen
(lorsque ε est nul) : Z T
1
fmoy = f (v, x, 0)dv,
T 0
Equations diérentielles ordinaires 231
et se demander sous quelles conditions les solutions du système non autonome (5.96)
et celles du système autonome :
où le terme p(t, y, ε) est une perturbation T − périodique qui est en O(ε). Pour ε petit,
la matrice prémultipliant ẏ est non singulière, ce qui conduit à :
pour lequel
√ on a les équilibres x = 0 (instable), x = 2 5 (exponentiellement stable),
x = −2 5 (exponentiellement stable). Le théorème 34 permet de conclure que, pour√ε
susament petit, il y aura une orbite T −périodique stable au voisinage de x = 2 5.
Pour ε = 0.01, les simulations de (5.99) et du système moyen associé donnent la
gure 5.18.
Exemple 28. Une application de cette méthode est l'étude d'oscillateur du second
ordre faiblement non linéaire :
ÿ + ω 2 y = εg(y, ẏ),
qui en posant r sin θ = y, ωr cos θ = ẏ devient :
ε
ṙ = g(r sin θ, ωr cos θ) cos θ,
ω
ε
θ̇ = ω− g(r sin θ, ωr cos θ) sin θ.
rω
g(r sin θ,ωr cos θ) cos θ
Ainsi, en posant f (θ, r, ε) = ω2 − ε g(r sin θ,ωr cos θ) sin θ
, on a :
r
dr
= εf (θ, r, ε).
dθ
Si |g| < k min(y, ẏ), alors θ̇ est minorée pour ε susament petit, donc f est bornée
2π−périodique. Si elle est susament dérivable (par exemple, g de classe C 2 ), alors on
peut appliquer le théorème 34. Par exemple, pour l'oscillateur de Van der Pol (5.31),
on trouve :
g(y, ẏ) = ẏ(1 − y 2 ),
dr r cos2 θ(1 − r2 sin2 θ)
= εf (θ, r, ε) ; f (θ, r, ε) = ,
dθ 1 − ε sin θ cos θ(1 − r 2 sin2 θ)
dr 1 1
= εfmoy (r) = ε r − r3 .
dθ 2 8
Le système moyen possède trois points d'équilibre : r = 0 (instable), r = 2 (expo-
nentiellement stable), r = −2 (pas de signication). En utilisant le théorème 34, on
déduit que, pour ε susament petit, l'oscillateur de Van der Pol possède un cycle li-
mite stable proche de r = 2. Enn, on peut montrer que cette orbite est T −périodique
de période T = 2π + O(ε).
Les modèles non linéaires peuvent présenter des changements radicaux de compor-
tement lorsqu'un paramètre change : c'est un phénomène de bifurcation. Par exemple,
le déplacement d'un ressort de raideur k attaché à une masse m et à un bâti excité par
un retour en αẋ est modélisé par mẍ + µẋ + kx = 0, µ√= (δ − α), avec δ le coecient
(4mk−µ2 )
de frottement. Les modes, pour µ petit, sont λ = −µ±i 2m . Evidement, si µ est
positif (respectivement négatif), alors l'équilibre est instable (respectivement stable)
alors que, pour µ0 = 0, un mode oscillatoire apparaît. Clairement, µ0 est une valeur
de bifurcation.
Sur des exemples d'équations de récurrence simples20 , on peut vérier qu'une
innité de telles bifurcations peut conduire à un comportement imprévisible car très
20 Par exemple du premier ordre xn+1 = µxn (1 − xn ) (voir [BER 84, GUC 83]).
234 Mathématiques pour les systèmes dynamiques
g(h(µ), µ) = 0, ∀µ ∈ V(µe ).
Dénition 39. Le graphe de la fonction h constitue les branches d'équilibres.
Exemple 29. Soit le système : dx
dt
= µ3 − x3 , x ∈ R, µ ∈ R. La branche d'équilibres
est la droite x = µ. Notons que, pour tout équilibre (x, µ) 6= (0, 0), la jacobienne de
g est non singulière : dans cet exemple, l'application h est l'identité ou son opposée
selon le signe de xe µe .
Exemple 30. Pour le système dx dt
= µ − x2 , x ∈ R, µ ∈ R, les branches d'équilibres
√
correspondent au graphe de la parabole x = ± µ, µ ≥ 0, représenté gure 5.19.
Lorsque ∂x ∂g
(xe , µe ) est non singulière, les points d'équilibre (dans un voisinage
de (xe , µe )) sont hyperboliques : le théorème 14 nous donne la structure locale des
solutions au voisinage de ces points (système structurellement stable). Par contre,
dans le cas où ∂x ∂g
(xe , µe ) est singulière, on est en présence d'un point dégénéré (non
hyperbolique), ce qui se traduit par la présence possible d'un changement de com-
portement (bifurcation). On peut noter qu'alors, ce point peut être la jonction de
plusieurs branches d'équilibres (voir exemple 29). La condition ∂x ∂g
(xe , µe ) est sin-
gulière traduit une bifurcation locale.
Equations diérentielles ordinaires 235
Dénition 40. Une valeur de bifurcation est une valeur du paramètre vectoriel µ
intervenant dans (5.100) pour laquelle (5.100) n'est pas structurellement stable. De
façon générale, on distingue deux types de bifurcations :
1. les bifurcations locales : les changements qualitatifs du portrait de phase se font
au voisinage d'un élément critique ;
2. les bifurcations globales : les changements s'opèrent sur une région de l'espace,
par exemple lorsqu'il y a création d'attracteurs étranges, ou lorsqu'une orbite
homoclinique se transforme en orbite périodique ou point d'équilibre.
Exemple 31. µ0 = 0 est une valeur de bifurcation pour le système de l'exemple 30,
mais pas pour celui de l'exemple 29 car l'équilibre x = µ est toujours asymptotiquement
stable quelle que soit la valeur du paramètre µ.
Dénition 41. Le graphe, dans l'espace (x, µ), de l'évolution des ensembles inva-
riants (points d'équilibres, orbites fermés, etc.) en fonction du paramètre µ constitue
un diagramme de bifurcation.
Le terme évolution est pris ici au sens qualitatif, c'est-à-dire qu'il peut s'agir
de création ou de changement qualitatif (par exemple : stable → instable). Par la
suite, on adoptera la convention suivante : les éléments stables seront représentés en
traits pleins et ceux instables, en traits discontinus.
Exemple 32. Reprenons le système de Van der Pol (voir équation (5.3)). L'origine
est un point d'équilibre et la jacobienne en ce point vaut :
0 1
Jg (0) = .
−1 2µ
p
Ainsi, pour µ proche de zéro, les valeurs propres sont µ ± i 1 − µ2 . Ce qui signie
que µ0 = 0 est une valeur de bifurcation pour laquelle l'origine, tout en restant un
point d'équilibre, change qualitativement de asymptotiquement stable (µ < 0) à
instable (µ > 0). Nous verrons par la suite qu'il s'agit d'une bifurcation de Hopf
qui, lorsque µ devient positif, donne naissance à des cycles limites asymptotiquement
stables entourant l'origine. Le diagramme de bifurcation est donné sur la gure 5.20.
236 Mathématiques pour les systèmes dynamiques
A l'heure actuelle, il est impossible de faire une classication exhaustive des phé-
nomènes de bifurcations locales ou globales. En eet une complexité d'étude apparaît
avec l'augmentation :
- de la dimension eective de (5.100) : n,
- du nombre de paramètres qui interviennent dans (5.100) : k.
Cependant, un grand nombre de phénomènes peuvent être étudiés à l'aide de
bifurcations élémentaires que l'on retrouve régulièrement. En particulier, pour
les points d'équilibre, lorsque les paramètres varient, les valeurs propres de la jaco-
bienne peuvent traverser l'axe imaginaire : il y a bifurcation. Parmi ces paramètres,
un nombre minimal peut être utilisé pour reproduire ce type de bifurcation : c'est
la codimension de la bifurcation. Pour une bifurcation
decodimension 1, Jg (0) est
0 −ω
0 0 0
semblable soit à , soit à ω 0 , avec X et Y de tailles
0 X
0 Y
respectives (n−1)×(n−1) et (n−2)×(n−2). Génériquement, toute bifurcation (locale
au voisinage d'équilibre) de codimension 1 peut se ramener à l'une des bifurcations
suivantes21 .
Sous-critique ou selle-n÷ud
√ √
Les points d'équilibres sont xe1 = − µ et xe2 = µ pour µ ≥ 0, de jacobiennes
√ √
respectives 2 µ et −2 µ.
Transcritique
Super-critique
x(t) = √ x0
, ce qui montre que x(t) converge vers zéro (l'origine est asymp-
1+2(t−t0 )x2
0
totiquement stable, non exponentiellement). Le diagramme de bifurcation est donné
gure 5.24.
5.9.3. Chaos
Un phénomène chaotique (comportement aléatoire en apparence) peut être ob-
tenu à partir de plusieurs phénomènes de bifurcation : doublement de période
240 Mathématiques pour les systèmes dynamiques
[BER 84, GUC 83, PEI 92], bifurcation sur le tore (innité de bifurcations de Hopf),
intermittence (phénomènes périodiques alternant avec des phénomènes apériodiques),
etc. La présence d'attracteurs étranges est un indicateur du chaos : en eet, cela im-
plique une grande sensibilité des solutions aux conditions initiales (deux solutions
démarrant de conditions initiales voisines donnent naissance à des trajectoires de
natures et/ou de formes diérentes). Aussi, un phénomène chaotique peut être dé-
tecté en mettant en évidence soit un ensemble invariant de dimension non entière
(attracteur étrange), soit une sensibilité aux conditions initiales (notamment à l'aide
des exposants de Liapounov). Dans ce qui suit, on ne considèrera que des EDO non
linéaires autonomes du type (5.19).
Dénition 42. Un ensemble A est un attracteur étrange si A est un ensemble
attractif invariant par le ot Φtg et si toute trajectoire initialisée dans A est dense
dans A.
Exemple 33. Soit le modèle de Rösler :
ẋ = −(y + z),
ẏ = x + ay, (5.104)
ż = b − cz + xz,
pour a = b = 0.2, c = 5.8, on obtient l'attracteur de Rösler de la gure 5.25.
D'un point de vue pratique, il est rare de pouvoir démontrer qu'un ensemble A est
un attracteur étrange, en particulier de montrer que toute trajectoire initialisée dans
A est dense dans A. Aussi, il est naturel d'avoir recours à des méthodes numériques
permettant de calculer la dimension de l'attracteur qui est un indicateur probant de
son étrangeté . Considérons un cube C contenant un attracteur A dont on souhaite
déterminer la dimension. En notant n(ε) le nombre de cubes d'arête ε nécessaires au
recouvrement des points constituant l'attracteur A, on dénit la dimension fractale
(ou capacité) par :
ln(n(ε))
df (A) = lim . (5.105)
ε→0 ln( 1ε )
Equations diérentielles ordinaires 241
Considérons une trajectoire particulière Φtg (x0 ) et notons µi (t) les valeurs propres de
la matrice de monodromie23 associée au linéarisé de ẋ = g(x). Alors autour de cette
trajectoire (c'est-à-dire ż = Jg (Φtg (x0 ))z = A(t)z ), les exposants de Liapounov sont
donnés par :
1
Li = lim ln (|µi (t)|) .
t→∞ t
22
Toutes ces dimensions peuvent être dénies à partir d'un famille paramétrée de dimen-
P n(ε) q
ln p
1
sions (dites de Rényi), dénies par dq (A) = 1−q limε→0 i=1
ln( 1 )
i
, q ≥ 0, où pi est la
ε
probabilité pour qu'un point de l'attracteur se retrouve dans la i−ème boîte dont il faut n(ε)
unités pour recouvrir l'attracteur tout entier. Donc si N est le nombre de points (obtenus
par simulation) constituant l'attracteur et Ni le nombre de points contenus dans la i−ème
boîte, on a pi = NNi .
23 Cette matrice est périodique dans le cas d'une trajectoire périodique.
242 Mathématiques pour les systèmes dynamiques
5.10. Bibliographie
[ARN 80] Arnold V.I., Chapitres supplémentaires à la théorie des équations dié-
rentielles ordinaires, MIR, Moscou, 1980.
[ARN 88] Arnold V.I., Equations diérentielles ordinaires, 4e édition, traduit du
russe, MIR, Moscou, 1988.
[BEL 62] Bellman R., Vector Lyapunov functions , SIAM J. Control, series A,
vol. 1, n◦ 1, p. 31-34, 1962.
[BER 84] Berge P., Pomeau Y., Vidal C., L'ordre dans le chaos (vers une ap-
proche déterministe de la turbulence), Hermann, 1984.
[BHA 70] Bhatia N.P., Szegö G.P., Stability theory of dynamical systems, Springer
Verlag, Berlin, 1970.
[BIR 27] Birkhoff G.D., Dynamical systems, Amer. Math. Soc. Colloq. IX, 1927.
[BOR 76] Borne P., Contribution à l'étude des systèmes discrets non linéaires de
grande dimension, Thèse de doctorat ès Sc., université de Lille, 1976.
[BDR 93] Borne P., Dauphin-Tanguy G., Richard J.P., Rotella F., Zam-
bettakis I., Analyse et régulation des processus industriels : Tome 1, régulation
continue, Ed. Technip, 1993.
[BRD 02] Borne P., Richard J.P., Dambrine M., Perruquetti W., Vector
Lyapunov functions : Nonlinear, time-varying, ordinary and functional dierential
equations , in Stability theory at the end of the XXth century, Taylor & Francis,
London, p. 49-73, 2002.
[CHI 88] Chiang H.D., Hirsch M.W., Wu F.F., Stability regions of nonlinear
autonomous dynamical systems , IEEE Trans. Aut. Control, vol. 33, n◦ 1, p.
16-27, 1988.
[CHI 89] Chiang H.D., Thorp J.S., Stability regions of nonlinear dynamical sys-
tems : A constructive methodology , IEEE Trans. Aut. Control, vol. 34, n◦ 12,
p. 1229-1241, 1989.
[CLA 83] Clarke F.H., Optimization and nonsmooth analysis, Wiley, 1983.
[COD 55] Coddington E., Levinson N., Theory of Ordinary Dirential Equa-
tions, Mc Graw-Hill, 1955.
[COR 99] Corrieu, P.L., Commande en boucle fermée d'un actionneur pas-à-pas,
Rapport de DEA d'Automatique, Univ. Sc. & Technologies de Lille, 1999.
[DJO 86] Djordjevic M.Z., Stability analysis of nonlinear systems by matrix lya-
punov method , IMACS-IFACS, Modelling & Simulation for Control of Lumped
& Distrib. Parameter Systems, p. 209-212, Villeneuve d'Ascq (France), 1986.
[FIL 88] Filippov A.F., Dierential Equations with Discontinuous Righthand Sides,
Kluwer Academic Publishers, 1988.
[GEN 84] Genesio R., Vicino A., New techniques for constructing asymptotic
stability regions for nonlinear systems, IEEE Trans. Circuits and Sys., vol. 31,
n◦ 6, p. 574-581, juin 1984.
[GEN 85] Genesion R., Tartaglia M., Vicino A., On estimation of asymptotic
stability regions : State of art and new proposals , IEEE Trans. Aut. Control,
vol. 30, n◦ 8, p. 747-755, août 1985.
[GRU 73a] Gruji¢ Lj.T., On practical stability , Int. J. Control, vol. 17, n◦ 4, p.
881-887, 1973.
Equations diérentielles ordinaires 243
[GRU 73b] Gruji¢ Lj.T., Practical stability with the settling time , Teoretski
Prilog Automatica, 7, p. 6-10, 1973.
[GRU 77] Gruji¢ Lj.T., Gentina J.C., Borne P., General aggregation of large-
scale systems by vector Lyapunov functions and vector norms , Int. J. Control,
vol. 24, n◦ 4, p. 529-550, 1977.
[GRU 87] Gruji¢ Lj.T., Martynyuk A.A., Ribbens-Pavella M., Large scale
systems stability under structural and singular perturbations, LNCIS, Springer
Verlag, 1987.
[GRU 91a] Gruji¢ Lj.T., The necessary and sucient conditions for the exact
construction of a Lyapunov function and asymptotic stability domain , 30th
IEEE Conf. on Decision and Control, Brighton, England, p. 2885-2888, 1991.
[GRU 91b] Gruji¢ Lj.T., Solutions to Lyapunov stability problems : Nonlinear
systems with dierentiable motions , 13th IMACS World Congress on Comput.
& Appl. Math., p. 1228-1231, Trinity College Dublin, juillet 1991.
[GUC 83] Guckenheimer J., Holmes P., Nonlinear oscillations, dynamical sys-
tems, and bifurcations of vector elds, Springer Verlag, 1983.
[HAH 63] Hahn W., Theory and application of Liapunov's direct method, Prentice-
Hall, Englewood Clis, N.J., 1963.
[HAH 67] Hahn, W., Stability of motion, Springer-Verlag N.Y., 1967.
[HAL 91] Hale J., Koçak H., Dynamics and bifurcations, Texts in Applied Mathe-
matics, vol. 3, Springer Verlag, 1991.
[HIR 74] Hirsh M.W., Smale S., Dierential equations, dynamical systems, and
linear algebra, Academic Press, 1974.
[ISI 89] Isidori A., Nonlinear Control Systems, vol. 1. Springer, 3e édition, 1989.
[KAM 32] Kamke E., Zur theorie gewöhnlicher dierentialgleichung II , Acta Ma-
thematicae, vol. 58, p. 57-87, 1932.
[KHA 96] Khalil H.K., Nonlinear systems, Prentice-Hall, 1996.
[KOK 86] Kokotovi¢ P., Khalil H.K., O'Reilly J., Singular perturbation me-
thods in control : Analysis and design, Academic Press, 1986.
[LAK 69] Lakshmikantham, V., Leela S., Dierential and integral inequalities,
vol. 1., Academic Press, New York, 1969.
[LAS 61] LaSalle J.P., Lefschetz S., Stability by Liapunov's direct method with
applications, Academic Press, 1961.
[LIA 92] Liapounov A.M., Stability of motion : General problem , Int. J. Control,
Lyapunov Centenary Issue, vol. 55, n◦ 3, mars 1992.
[OMA 74] O'MalleyR.E., Introduction to singular perturbations, Academic Press,
Londres, 1974.
[PEI 92] Peitgen H.O., Jürgens H., Saupe D., Chaos and fractals : New frontiers
of science, Springer-Verlag, 1992.
[PER 94] Perruquetti W., Sur la stabilité et l'estimation des comportements non
linéaires, non stationnaires, perturbés, Thèse de doctorat, université de Lille,
1994.
[PER 95a] Perruquetti W., Richard J.P., Borne P., Vector Lyapunov func-
tions : Recent developments for stability, robustness, practical stability and
constrained control , Nonlinear Times & Digest, vol. 2, p. 227-258, 1995.
244 Mathématiques pour les systèmes dynamiques
[PER 95b] Perruquetti W., Richard J.P., Gruji¢ Lj.T., Borne P., On pra-
tical stability with the settling time via vector norms , Int. J. Control, vol. 62,
n◦ 1, p. 173-189, 1995.
[REI 82] Reinhard H., Equations diérentielles, fondements et applications,
Gauthier-Villars, 1982.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès, Traité
IC2, 2001.
[ROU 73] Rouch N., Mawhin J., Equations diérentielles ordinaires, Tome 1 :
Théorie générale, Tome 2 : Stabilité et solutions périodiques, Masson, Paris, 1973.
[SCH 95] Schwartz L., Analyse I : Théorie des ensembles et topologie, Hermann,
1995.
[SEY 94] Seydel R., Practical bifurcation and stability analysis : From equilibrium
to chaos, vol. 5, IAM, Springer-Verlag, 2e édition, 1994.
[WAZ 50] Wazewski T., Systèmes des équations et des inégalités diérentielles or-
dinaires aux seconds membres monotones et leurs applications, Ann. Soc. Polon.
Math., vol. 23, p. 112-166, 1950.
[WEI 67a] Weiss L., Converse theorems for nite time stability , First Asilomar
Conf. on Circuits and Systems, p. 1005-1014, Asilomar, CA, 1967.
[WEI 67b] Weiss L., Infante E.F., Finite time stability under perturbing forces
and on product spaces , IEEE Trans. Aut. Control, vol. 12, n◦ 1, p. 54-59, 1967.
[ZUB 61] Zubov V.I., Methods of A.M. Lyapunov and their application, United
States Atomic Energy Commission, vol. AEC-Tr-4439, 1961 (traduit d'une pu-
blication de la Maison d'Édition de l'Université de Leningrad, 1957).
Chapitre 6
Algèbre diérentielle
6.1. Introduction
priétés structurelles des systèmes (6.6), les notions de bouclages (6.7) et la synthèse
par bouclage (6.8). La dernière partie (6.9) est dévolue à un exemple qui permet
d'illustrer les principales notions exposées dans ce chapitre. Cet exemple est intéres-
sant à plusieurs titres : il est tiré de la pratique et montre que l'algèbre diérentielle
permet aussi de traiter des systèmes dont les équations ne sont pas algébriques.
l'inclusion est appelée base de transcendance de l'extension F/E . Cette notion géné-
ralise la notion de base d'un espace vectoriel.
Dénition 1 (Degré de transcendance d◦ tr F/E ). Toutes les bases de transcen-
dance d'une extension F/E ont même cardinal ; on l'appelle degré de transcendance
de l'extension F/E et on le note d◦ tr F/E .
Cet entier généralise aux extensions de corps la notion de dimension des espaces
vectoriels. Naturellement, d◦ tr E(a1 , . . . , aα )/E ≤ α et on a l'égalité lorsque que la
famille {a1 , . . . , aα } est E -algébriquement libre. Pour une tour d'extensions G/F/E
(c'est-à-dire que G est un surcorps de F , lui-même sur-corps de E ), le degré de
transcendance vérie l'égalité :
Une propriété intéressante des extensions diérentielles de type ni, qui joue un rôle
fondamental pour la réalisation par variables d'état, est la suivante.
Proposition 1. Soit L/K une extension diérentielle niment engendrée. Les deux
propriétés suivantes sont équivalentes :
(i) l'extension L/K est diérentiellement algébrique : d◦ tr diff L/K = 0 ;
(ii) le degré de transcendance (non diérentiel) de l'extension L/K est ni.
Une notion importante pour les aspects algorithmiques et la détermination des
degrés de transcendance (diérentiels ou non) est la possibilité de linéarisation des
équations grâce aux diérentielles de Kähler [JOH 69]. Etant donnée une extension
diérentielle L/K niment engendrée, il est possible de dénir un L[ dt d
]-module à
gauche, noté ΩL/K , et une K -dérivation dL/K : L → ΩL/K qui vérient :
∀a, b ∈ L, dL/K (a + b) = dL/K (a) + dL/K (b),
dL/K (a b) = b dL/K (a) + a dL/K (b),
d
∀a ∈ L, (dL/K (a)) = dL/K (ȧ),
dt
∀c ∈ K, dL/K (c) = 0.
Le module ΩL/K est appelé module des diérentielles de Kähler associé à l'extension
diérentielle L/K . L'idée sous-jacente à la notion de diérentielle de Kähler est celle
d'accroissement innitésimal, comme pour le concept d'espace tangent en géométrie
diérentielle.
Proposition 2. [JOH 69] Soit L/K une extension diérentielle niment engendrée.
Un sous-ensemble S de L est diérentiellement algébriquement indépendant (respec-
tivement, algébriquement indépendant) sur K si et seulement si l'ensemble dL/K (S)
est diérentiellement L-linéairement indépendant (respectivement, L-linéairement in-
dépendant).
On a en particulier : d◦ tr diff L/K = rgΩL/K ΩL/K .
où les ν ij sont des entiers naturels. Les entiers r et s vérient r < s car (6.2) est
un système sous-déterminé d'équations algébro-diérentielles, c'est-à-dire qu'il y a
plus de variables que d'équations. On note par k le (plus petit) corps diérentiel
contenant tous les coecients des polynômes du système d'équations (6.2). Il s'agira
d'un corps de constantes (Q, R ou C) si (6.2) est un système stationnaire. Par contre,
si les coecients dépendent du temps, on choisira un corps diérentiel de fonctions
du temps (comme R(t) ou Rhti ou un corps de fonctions méromorphes). A chaque
variable wi apparaissant dans (6.2), on associe une indéterminée diérentielle Wi .
Dans l'anneau diérentiel k{W1 , . . . , Ws }, engendré par k et W1 , . . . , Ws , on considère
les polynômes diérentiels :
(ν i1 )
Ri (W1 , . . . , W1 , . . . , Ws , . . . , Ws(νis ) ), i = 1, . . . , r,
équations algébriques, comme on le verra dans l'exemple traité en section 6.9. La plu-
part des fonctions usuelles (cos, sin, exp, log. . .) satisfont des équations diérentielles
algébriques et la construction de l'extension diérentielle reste possible moyennant un
enrichissement de l'idéal I. On peut aussi traiter les équations diérentielles conte-
nant des fonctions analytiques non polynomiales à l'aide de l'approche présentée dans
[CON 93, CON 99].
6.4.2. Entrée
Une entrée du système K/k est un ensemble ni e = (e1 , . . . , es ) de K tel que
l'extension K/khei est diérentiellement algébrique. Cela signie que le système est
inuencé par l'entrée, puisque que tout élément de K satisfait une équation diéren-
tielle qui dépend (éventuellement) de l'entrée. On dit aussi que l'entrée est la cause
du système, puisqu'elle inuence ses autres variables.
Une entrée est dite indépendante si c'est un ensemble diérentiellement algébri-
quement indépendant sur k. Dans ce cas :
d◦ tr diff K/k = d◦ tr diff khei/k = card e = s, (6.4)
puisque d tr diff K/khei = 0 par dénition de la notion d'entrée ; e est donc une base
◦
indépendants peut être considérée comme une entrée indépendante de K/k. Il s'agit
donc d'une notion très générale d'entrée.
Du point de vue de la théorie du contrôle, l'entrée peut être divisée en deux
parties e = (u, $) où u = (u1 , . . . , um ) est la commande et $ = ($1 , . . . , $q ) la
perturbation. La commande comprend les composantes de l'entrée par lesquelles il
est possible d'agir sur le système tandis que la perturbation est formée des variables
représentant les inuences non maîtrisables aectant le système.
6.4.3. Dynamique
Une dynamique est un système K/k dont on a distingué, en général pour des
raisons liées au fonctionnement du système lui-même, une entrée e particulière. On
note une dynamique sous la forme K/khei. La dynamique K/khei signie que l'on
considère le système K/k ayant pour entrée e = (e1 , . . . , es ).
6.4.4. Sortie
Une sortie d'un système K/k ou d'une dynamique K/khei est un ensemble ni y =
(y1 , . . . , yp ) de K. Comme la notion d'entrée présentée plus haut, la notion de sortie
est très générale puisque toute famille nie de K peut être considérée comme sortie.
En pratique, ce sont des raisons liées au fonctionnement du système ou au problème de
contrôle qui déterminent le choix de la sortie. On parle aussi d' eet pour désigner
la sortie car elle comporte les variables que l'on observe ou que l'on commande.
Lorsque, pour un système K/k, une entrée e et une sortie y sont distinguées, la sous-
extension khe, yi/k de l'extension diérentielle K/k peut elle-même être considérée
comme un système. Elle est appelée sous-système entrée-sortie de K/k. Dans le cas
où K = khe, yi, le système K/k peut être qualié de système entrée-sortie.
où les Ti sont des polynômes irréductibles à coecients dans k et les γ i , des entiers
naturels. Les équations (6.8) sont les équations de changement d'état.
Les représentations d'état d'un système non linéaire sont, en général, implicites et
dépendent des dérivées de l'entrée. Il en est de même des expressions des sorties ou
des changements d'état. Cela se rencontre eectivement en pratique (voir par exemple
[FLI 93b]).
L'apparition des dérivées de l'entrée s'explique en analysant le processus aboutis-
sant à l'écriture des équations d'état (6.6) avec éventuellement une sortie (6.7)
254 Mathématiques pour les systèmes dynamiques
6.6.1. Platitude
Un système non linéaire K/k est (diérentiellement) plat s'il existe une famille
nie y = (y1 , . . . , ym ) d'éléments diérentiellement k-algébriquement indépendants
d'un corps diérentiel K, extension algébrique de K, telle que l'extension diérentielle
K/khyi soit (non diérentiellement) algébrique. La famille y est appelée une sortie
plate ou sortie linéarisante du système K/k. On renvoie à [FLI 95] pour de plus
amples détails. Remarquons que K/k est une extension diérentielle transcendante
pure.
D'après cette dénition, la sortie y possède la propriété que tout élément de K,
donc de K, est khyi-algébrique. Toute variable du système satisfait une équation
algébrique qui dépend de y et d'un nombre ni de ses dérivées. En d'autres termes,
y donne une paramétrisation nie du système qui ne nécessite pas d'intégration
d'équation diérentielle. Tout élément w de K (toute variable du système) satisfait
une équation de la forme suivante, où Q est un polynôme diérentiel irréductible et
256 Mathématiques pour les systèmes dynamiques
γ un entier naturel :
Q(w, y, . . . , y (γ) ) = 0. (6.9)
6.6.2. Observabilité
6.7. Bouclages
Le bouclage est une des notions essentielles de la théorie du contrôle. Les bou-
clages sont habituellement dénis par leurs équations ; comme c'est le cas pour les
notions vues précédemment, l'algèbre diérentielle permet d'en donner des déni-
tions intrinsèques, c'est-à-dire par une propriété d'une structure algébrique associée
aux équations du système considéré.
Avant d'aborder ce sujet, il est opportun d'eectuer plusieurs remarques sur les
bouclages habituellement considérés. Soit un système non linéaire, déni par une
représentation d'état classique :
ẋ = f (x, u), (6.10)
où u désigne la commande à valeurs dans Rm , et x, l'état à valeurs dans Rn .
Algèbre diérentielle 257
(r)
φi,r (ui , x, v, . . . , v (s+r) ) = 0, i = 1, . . . , m ( = card u),
(r) (6.14)
ψ j,r (vj , x, u, . . . , u(s+r) ) = 0, j = 1, . . . , µ ( = card v).
Dans cette partie, on résume deux problèmes de synthèse par bouclage, à savoir
le découplage et le rejet de perturbations. L'algèbre diérentielle permet d'en don-
ner des dénitions simples, d'exprimer leurs conditions nécessaires et susantes sous
forme de conditions de rang et de montrer que le bouclage dynamique endogène est
susamment riche pour les résoudre. De plus, dans le cas des systèmes classiques, le
bouclage quasi statique sut.
2
On renvoie à [DEL 98a] pour une dénition intrinsèque du bouclage statique basé sur la
notion algébrique de ltration.
Algèbre diérentielle 259
6.8.1. Découplage
Un système K/k d'entrée u (commande) et de sortie y est dit découplé (par rapport
à u et y ) si le sous-système entrée-sortie khu, yi/k vérie :
(i) les corps khu1 , y1 i,. . ., khup , yp i et éventuellement3 khup+1 , . . . , um i sont k-
algébriquement disjoints, à une renumérotation près des composantes de l'entrée
u;
(ii) les composantes de y sont diérentiellement transcendantes sur k.
La condition (i) exprime le fait que dans un système découplé, chaque composante
de la sortie n'est inuencée que par une entrée au maximum ; la condition (ii) assure
que chaque composante de la sortie est eectivement inuencée par une composante
de l'entrée. En d'autres termes, un système découplé possède la structure de plusieurs
systèmes mono-entrée, mono-sortie en parallèle. Le problème du découplage consiste
à déterminer un bouclage tel qu'en boucle fermée, le système soit découplé.
Proposition 6. Un système K/k de sortie y est découplable si et seulement s'il est
inversible à droite [FLI 89a]. Le bouclage qui découple peut toujours être choisi parmi
les bouclages endogènes ou même quasi statiques si le système est classique [DEL 98b].
6.8.3. Linéarisation
La linéarisation par bouclage est un problème de synthèse qui a été très étudié.
Outre les aspects pratiques et son rapport avec la commandabilité, la platitude permet
de considérer ce problème sous un autre angle.
Proposition 8. [DEL 98d] Un système non linéaire est linéarisable par bouclage
quasi statique d'état si et seulement s'il est plat.
3 Dans le cas où il y a plus de composantes d'entrée que de sortie.
260 Mathématiques pour les systèmes dynamiques
6.9. Exemple
6.9.1. Modèle
Considérons le moteur synchrone4 dont le modèle s'écrit :
θ̇ = ω, (6.15a)
J ω̇ = np Km (−ia sin np θ + ib cos np θ) − f ω − τ r , (6.15b)
dia
L = −Ria + np Km ω cos np θ + va , (6.15c)
dt
dib
L = −Rib − np Km ω sin np θ + vb , (6.15d)
dt
où θ et ω désignent respectivement la position et la vitesse angulaire de l'arbre du
moteur ; ia et ib les courants dans chacune des phases ; va et vb les tensions d'ali-
mentation de chacune des phases ; τ r le couple résistant que subit l'arbre du moteur.
L'ensemble mécanique en rotation présente un moment d'inertie J ; f est le coecient
de frottements visqueux ; np est le nombre de paires de pôles ; Km , la constante de
couple et de force contre-électromotrice ; L et R, le coecient d'auto-induction et la
résistance des bobinages de chaque phase.
On se rend ainsi compte qu'il s'agit d'un système de trois équations différen-
tielles algébriques indépendantes en six variables. Par conséquent7 , d◦ tr diff K/R =
d◦ tr diff Rhw1 , . . . , w6 i/R = 3. Le système d'équations (6.16) ou (6.20) est donc un
système à trois entrées (indépendamment de la dénomination des variables). Le choix
naturel pour le fonctionnement en moteur de cette machine électrique est de prendre
deux commandes : les tensions vd et vq , et une perturbation : le couple de charge τ r .
La dynamique K/Rhvd , vq , τ r i vérie d◦ tr K/Rhvd , vq , τ r i = 4, c'est-à-dire qu'il y a
4 variables d'état, comme on le voit sur les équations (6.16) ou (6.20). On constate, en
eet, que si l'entrée est déterminée, il faut donner 4 conditions initiales pour intégrer
(6.15) ou (6.20).
6 En pratique, il n'est pas bon, du point de vue numérique, de simuler (6.18) et il vaut
mieux utiliser une table pour la détermination des fonctions sinus et cosinus qui apparaissent
dans [6.19].
7
On peut utiliser la proposition 2 ou tirer de [DEL 98a] les aspects algorithmiques en
termes de ltrations.
Algèbre diérentielle 263
En pratique, puisqu'il n'est pas possible de commander directement par les cou-
rants, ce deuxième choix d'entrée suggérera plutôt de regarder le système K/R comme
la cascade de deux sous-systèmes8 couplés : d'une part, une dynamique rapide
Rhid , iq , ω, vd , vq i/Rhω, vd , vq i d'entrée (ω, vd , vq ) et de sortie (id , iq ), dont une réali-
sation d'état naturelle est par exemple :
did R 1
= − id + np ωiq + vd , (6.23a)
dt L L
diq R np Km 1
= − iq − np ωid − ω + vq ; (6.23b)
dt L L L
et d'autre part, une dynamique lente Rhθ, id , iq , τ r i/Rhid , iq , τ r i, d'entrée id , iq , τ r et
de sortie θ (ou ω ), dont une représentation d'état est (6.22).
Un autre choix possible de l'entrée consiste à prendre9 (−τ r ) comme commande
et (−id , −iq ) comme perturbation. Ce choix correspond au fonctionnement en géné-
ratrice et la sortie est (−vd , −vq ). Dans ce cas, il s'agit d'une dynamique d'ordre 2 :
d◦ tr K/Rh−τ r , −id , −iq i = 2, car les deux équations diérentielles du premier ordre
(6.16a) et (6.16b) permettent de déterminer les variables θ et ω, considérées ici comme
8 Les qualicatifs lente et rapide font référence à la vitesse relative des deux dyna-
miques considérées pour des choix de paramètres correspondants à des machines réelles.
9
Les signes − apparaissent parce que le modèle initial a été écrit en convention
récepteur pour la machine, alors qu'elle est considérée ici comme générateur.
264 Mathématiques pour les systèmes dynamiques
état. Les deux autres équations du modèle (6.16c) et (6.16d) donnent les expressions
des sorties en fonction des variables d'état, de l'entrée et de ses dérivées. La représen-
tation d'état obtenue avec ce choix naturel de variables fait apparaître des dérivées
de l'entrée dans les équations des sorties :
θ̇ = ω, (6.24a)
f 1 np Km
ω̇ = − ω + (−τ r ) − (−iq ), (6.24b)
J J J
d(−id )
−vd = R(−id ) − np Lω(−iq ) + L , (6.24c)
dt
d(−iq )
−vq = R(−iq ) + np Lω(−id ) − np Km ω + L . (6.24d)
dt
6.9.4. Platitude
Le système (6.16) est plat et il existe plusieurs sorties linéarisantes ayant une
signication physique.
Celle qui correspond au fonctionnement en moteur est (θ, id , τ r ). On vérie que
θ, id , τ r sont R-diérentiellement indépendantes. De plus, avec l'équation (6.16a), on
obtient l'expression de ω en fonction de la sortie plate, puis, à l'aide de (6.16b), celle
de iq :
1
iq = (J θ̈ + f θ̇ + τ r )
np Km
On constate que ce suivi de trajectoire n'est possible que si θ∗ admet partout une
dérivée troisième à droite et à gauche.
La sortie plate correspondant au fonctionnement en génératrice est (θ, −id , −iq ).
Les calculs pour le vérier et établir les commandes nominales pour suivre des tra-
jectoires sont laissés au lecteur.
6.10. Bibliographie
[AIT 94] Aït-Amirat Y., Contribution à la théorie de la structure des systèmes
en automatique : application au découplage et au rejet de perturbations,
Thèse de doctorat, université Claude Bernard-Lyon I, 1994.
[BOD 98] Bodson M., Chiasson J., Dierential-geometric methods for control of
electrical motors, Int. J. Robust Nonlinear Control, vol. 8, p. 923-954,
1998.
[BOU 94] Boulier F., Etude et implantation de quelques algorithmes en algèbre
diérentielle, Thèse de doctorat, Université des sciences et technologies
de Lille, 1994.
[BOU 95] Boulier F., Petitot M., Complete computation of the relations for
implicit dynamical systems, Preprints of the IFAC Conference on System
Structure and Control, p. 635-639, Nantes, 5-7 juillet 1995.
[CON 93] Conte G., Perdon A.M., Moog C.H., The dierential eld associated
to a general analytic nonlinear dynamical system, IEEE Trans. Automat.
Control, vol. 38, p. 1120-1124, 1993.
[CON 99] Conte G., Moog C.H., Perdon A.M., Nonlinear Control Systems :
An Algebraic Setting, Lecture Notes in Control and Inform. Sci., vol. 243,
Springer-Verlag, Londres, 1999.
266 Mathématiques pour les systèmes dynamiques
[DEL 92] Delaleau E., Fliess M., Algorithme de structure, ltrations et décou-
plage, C. R. Acad. Sci. Paris Sér. I Math., 315, p. 101-106, 1992.
[DEL 93] Delaleau E., Sur les dérivées de l'entrée en représentation et commande
des systèmes non linéaires, Thèse de doctorat, Université Paris XI, 1993.
[DEL 94] Delaleau E., Pereira da Silva P.S., Conditions de rang pour le rejet
dynamique de perturbations, C. R. Acad. Sci. Paris Sér. I Math., 319, p.
1121-1126, 1994.
[DEL 98a] Delaleau E., Pereira da Silva P.S., Filtrations in feedback synthesis :
Part I, Systems and feedbacks, Forum Math., vol. 10, n◦ 2, p. 147-174,
1998.
[DEL 98b] Delaleau E., Pereira da Silva P.S., Filtrations in feedback synthesis :
Part II, Input-output and disturbance decoupling, Forum Math., vol. 10,
n◦ 3, p. 259-276, 1998.
[DEL 98c] Delaleau E., Respondek W., Lowering the orders of derivatives of
controls in generalized state space systems, J. Math. Systems Estim.
Control, vol. 8, n◦ 4, p. 427-453, 1998.
[DEL 98d] Delaleau E., Rudolph J., Control of at systems by quasi-static feed-
back of generalized states, Internat. J. Control, vol. 71, n◦ 5, p. 745-765,
1998.
[DIO 89] Diop S., Théorie de l'élimination et principe du modèle interne en auto-
matique, Thèse de doctorat, Université Paris XI, 1989.
[DIO 91a] Diop S., Elimination in control theory, Math. Control Signals Systems,
vol. 4, p. 17-32, 1991.
[DIO 91b] Diop S., Fliess M., On nonlinear observability, Proc. 1st European
Control Conference, p. 152-157, Paris, Hermès, 1991.
[DIO 92] Diop S., Dierential-algebraic decision methods and some applications
to system theory, Theoretical Computer Science, vol. 93, p. 137-161, 1992.
[DIO 93] Diop S., Closedness of morphisms of dierential algebraic sets, applica-
tions to system theory, Forum Math., vol. 5, p. 33-47, 1993.
[ELA 92] El Asmi S., Autour de l'inversion des systèmes entrée-sortie et du concept
d'essentialité : une approche algébrique, Thèse de doctorat, Université
Paris XI, 1992.
[FLI 86a] Fliess M., A note on the invertibility of nonlinear input-output dieren-
tial systems, Systems Control Lett., vol. 8, p. 147-151, 1986.
[FLI 86b] Fliess M., Some remarks on nonlinear invertibility and dynamic state-
feedback, In Byrnes C.I., Linquist A., eds, Theory and Applications
of Nonlinear Control Systems (Proc. MTNS, 1985), p. 115-121, Elsevier
Science Publ., North-Holland, 1986.
[FLI 89a] Fliess M., Automatique et corps diérentiels, Forum Math., 1, p. 227-
238, 1989.
[FLI 89b] Fliess M., Generalized linear systems with lumped or distributed pa-
rameters and dierential vector spaces, Internat. J. Control, vol. 49, p.
1989-1999, 1989.
[FLI 90a] Fliess M., Automatique en temps discret et algèbre aux diérences,
Forum Math., vol. 2, p. 213-232, 1990.
[FLI 90b] Fliess M., Generalized controller canonical form for linear and nonlinear
dynamics, IEEE Trans. Automat. Control, vol. 35, p. 994-1001, 1990.
Algèbre diérentielle 267
[FLI 90c] Fliess M., Some basic structural properties of generalized linear systems,
Systems Control Lett., vol. 15, p. 391-396, 1990.
[FLI 90d] Fliess M., What is the Kalman state variable representation good for ?
Proc. 29th IEEE Control and Decision Conference, Honolulu, 1990.
[FLI 90e] Fliess M., Hasler M., Questioning the classic state-space description
via circuit examples, (Proc. MTNS, 1989), p. 1-12, Birkhäuser, Boston,
MA, 1990.
[FLI 92a] Fliess M., Reversible linear and nonlinear discrete-time dynamics, IEEE
Trans. Automat. Control, vol. 37, p. 1144-1153, 1992.
[FLI 92b] Fliess M., Lévine J., Martin P., Rouchon P., Sur les systèmes non
linéaires diérentiellement plats, C. R. Acad. Sci. Paris Sér. I Math., 315,
p. 619-624, 1992.
[FLI 93a] Fliess M., Glad S.T., An algebraic approach to linear and nonlinear
control, Essays on control : perspectives in the theory and its applications
(Groningen, 1993), Progr. Systems Control Theory, vol. 14, p. 223-265,
Birkhäuser, Boston, MA, 1993.
[FLI 93b] Fliess M., Lévine J., Rouchon P., Generalized state variable repre-
sentation for a simplied crane description, Internat. J. Control, vol. 85,
p. 277-283, 1993.
[FLI 95] Fliess M., Lévine J., Martin P., Rouchon P., Flatness and defect
of non-linear systems : introductory theory and examples, Internat. J.
Control, vol. 61, p. 1327-1361, 1995.
[GLA 88] Glad S.T., Nonlinear state space and input output description using
dierential polynomials, New Trends in Nonlinear Control Theory, Des-
cusse J., Fliess M., Isidori A., Leborgne D. eds., Lecture Notes in
Control and Inform. Sci., vol. 122, p. 182-189, Springer-Verlag, 1988.
[GLA 90] Glad S.T., Dierential algebraic modelling of nonlinear systems, In
Realization and modelling in system theory (Amsterdam, 1989), Progr.
Systems Control Theory, vol. 3, p. 97-105, Birkhäuser, Boston, MA, 1990.
[JOH 69] Johnson J., Kähler dierentials and dierential algebra, Trans. Amer.
Math. Soc., vol. 89, p. 92-98, 1969.
[KOL 73] Kolchin E.R., Dierential Algebra and Algebraic Groups, Academic
Press, New York, 1973.
[MES 92] Messager F., Sur la stabilisation discontinue des systèmes, Thèse de
doctorat, Université Paris XI, 1992.
[MOU 95] Mounier H., Propriétés structurelles des systèmes linéaires à retards :
aspects théoriques et pratiques, Thèse de doctorat, Université Paris XI,
1995.
[OLL 90] Ollivier F., Le problème de l'identiabilité structurelle globale : approche
théorique, méthodes eectives et bornes de complexité, Thèse de doctorat,
École polytechnique, 1990.
[PER 01] Pereira da Silva P.S., Delaleau E., Algebraic necessary and sucient
conditions of input-output linearization, Forum Math., 13, p. 335-357,
2001.
[RES 90] Respondek W., Right and left invertibility of nonlinear control systems,
In Sussmann H.J., Nonlinear Controllability and Optimal Control, p.
133-176, Marcel Dekker, 1990.
268 Mathématiques pour les systèmes dynamiques
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[RIT 50] Ritt J.F., Dierential Algebra, American Mathematical Society, New
York, 1950.
[RUD 91] Rudolph J., Poursuite de modèle : une approche par l'algèbre diéren-
tielle, Thèse de doctorat, Université Paris XI, 1991.
[RUD 94] Rudolph J., Viewing input-output system equivalence from dierential
algebra, J. Math. Systems Estim. Control, vol. 4, p. 353-383, 1994.
[SED 01] Sedoglavi¢ A., Méthodes seminumériques en algèbre diérentielle ; ap-
plication à l'étude des propriétés structurelles de systèmes diérentiels al-
gébriques en automatique, Thèse de doctorat, Ecole polytechnique, 2001.
[SIR 91a] Sira-Ramírez H., Nonlinear dynamical feedback controlled descent on
a non atmosphere-free planet : a dierential algebraic approach, Control
Theory Adv. Tech., vol. 7, n◦ 2, p. 301-320, 1991.
[SIR 91b] Sira-Ramírez H., Lischinsky-Arenas P., The dierentiel algebraic
approach in nonlinear dynamical compensator design for DC-to-DC power
converters, Int. J. Control, vol. 54, n◦ 1) p. 111-134, 1991.
[SIR 92] Sira-Ramírez H., The dierentiel algebraic approach in nonlinear dy-
namical feedback controlled landing maneuvers, IEEE Trans. Automat.
Control, vol. 37, n◦ 4, p. 518-524, 1992.
[WAE 91] van der Waerden B.L., Algebra, volume I & II, Springer-Verlag, New
York, 1991.
[WEY 95] Wey T., Svaricek F., Analyse und synthese nichlinearer regelungssys-
teme mittels dierentialalgebre, Automatisierungstechnik, vol. 43, p. 163-
203, 1995.
Chapitre 7
7.1. Introduction
7.2.2. Multifonctions
L'être mathématique appelé multifonction (en anglais set-valued map) est une
application qui, à un point, associe un ensemble de points.
Dénition 3 (Multifonction). Soient E1 et E2 deux ensembles. Une multifonction
F est dénie par une relation entre les éléments de E1 et ceux de P(E2 ). On la
note F : E1 ⇒ E2 . Elle associe à un point x de E1 un sous-ensemble F (x) de E2 .
On dénit le domaine de F : dom(F ) , {x ∈ E1 : F (x) 6= ∅}, son graphe1 :
graph(F ) , {(x, y) ∈ E1 × E2 : x ∈ dom(F ) et y ∈ F (x)}, son image : image(F ) ,
{y ∈ E2 : ∃x ∈ dom(F ) tel que y ∈ F (x)} = ∪x∈E1 F (x) ⊂ E2 .
Par exemple, le graphe de la multifonction G : x 7→ {x2 } est une parabole. Ce
graphe est non vide (on dit que F est non triviale) ; de plus, c'est une fonction au
sens classique du terme : elle est dite fonction stricte (G(x) est un singleton). Notons
1 Le graphe peut donc dénir la multifonction F .
Equations diérentielles à discontinuités 271
F1 ∩ F2 ↔ graph(F1 ) ∩ graph(F2 ),
F1 ∪ F2 ↔ graph(F1 ) ∪ graph(F2 ),
F1 ⊂ F2 ↔ graph(F1 ) ⊂ graph(F2 ).
L' image inverse d'une multifonction F sur l'ensemble E2 , notée F −1 (E2 ), est :
F +1 (E2 ) , {x ∈ E1 : F (x) ⊂ E2 }.
n'admet pas de solution au sens classique puisque ẋ(0) n'est pas dénie.
n Cependant,
o
en remplaçant le membre de droite par la multifonction F (x) = − |x| si x 6= 0,
x
274 Mathématiques pour les systèmes dynamiques
où f (t, x) est dénie et continue sur I × (Xp \M) (Xp une partition de X , M un
ensemble de mesure nulle2 )), il apparaît intéressant de la remplacer par l'inclusion
diérentielle suivante :
dx
∈ F (t, x), (7.6)
dt
où F (t, x) est un ensemble, dont nous verrons une construction, qui pour (t, x) ∈ I ×
Xp \M est déni par F (t, x) = {f (t, x)}. Cette inclusion doit permettre de capturer
les comportements de (7.5).
De même, pour un système commandé, on peut remplacer dx dt
= f (t, x, u), x ∈
X , u ∈ U, par dx
dt
∈ F (t, x, U) : c'est une approche souvent utilisée pour les problèmes
de commande en temps optimal, où l'on cherche une trajectoire de l'inclusion qui
rejoigne une cible en un temps minimum.
φ : I ⊂ R → X ⊂ Rn ,
t 7→ φ(t; t0 , x0 ),
chapitre 2. On peut aussi lire continue sur Xp \M comme continue p.p. , au sens de la
remarque 1.
3φ : [α, β] 7→ Rn est P absolument continue siP ∀ε > 0, ∃δ(ε) > 0 :
n n
∀ {]αi , β i [}i∈{1..n} , ]αi , β i [⊂ [α, β] i=1 (β i − αi ) ≤ δ(ε) ⇒ i=1 kφ(β i ) − φ(αi )k ≤ ε.
Equations diérentielles à discontinuités 275
Rt
t0
χ(u)du. Si, de plus, on a dφ
∈
dt p.p.
F (t, φ(t)), alors χ(u) ∈ F (u, φ(u)) et on obtient
p.p.
donc la représentation intégrale suivante :
Z t
φ(t) ∈ φ(t0 ) + F (u, φ(u))du.
t0
I(t0 , x0 ) = [t0 − α, t0 + α], α = min(a, Kb ) et, pour tout ε > 0 donné, il existe une
solution y(t) de (7.6) dénie sur I(t0 , x0 ) vériant y(t0) = x0 et ky(t) − x(t)k ≤
ε, ∀t ∈ I(t0 , x0 ).
Cela signie que remplacer (7.6) par (7.8) n'introduit pas de nouvelle solution .
Dans de nombreux cas, f (t, x) (second membre de (7.5)) est dénie sur une par-
tition Xp de l'espace d'état privée de points d'un ensemble de mesure nulle M. Si
f (t, x) est continue sur Xp \M, il est intéressant de considérer la multifonction :
\
F (t, x) = conv(f (t, Bε (x) − M)), (7.9)
ε>0
Ainsi, dans le cadre des systèmes à structure variable (par exemple, commandés
par modes glissants), la fonction f n'est pas dénie sur une variété S = {x ∈ X :
s(x) = 0} : +
f (t, x), si s(x) > 0,
f (t, x) = (7.10)
f − (t, x), si s(x) < 0.
Soit une fonction s deux fois diérentiable, telle que fn+ et fn− soient continues par
rapport à x et t, pour x solution de s(x) = 0. Soit enn h = fn+ − fn− , supposée
continûment diérentiable. Si, en chaque point de la surface s(x) = 0, une au moins
des deux inégalités fn+ < 0 ou fn− > 0 est vériée, alors, dans le domaine X , il
existe une solution unique (à droite) x(t) du système (7.5), qui dépend des conditions
initiales de façon unique.
De façon générale, pour les inclusions diérentielles, l'unicité des solutions n'a pas
de sens : dans le théorème précédent, solution unique (à droite) signie alors que
si, à t0 , deux solutions coïncident, alors elles coïncideront pour tout t ≥ t0 où elles
sont dénies.
Ce résultat (similaire aux théorèmes précédents) a un intérêt pratique immédiat :
en eet, lorsqu'on a simultanément fn+ < 0 et fn− > 0, la solution du problème (7.5)
pour x ∈ S est dénie par :
x ∈ S,
(7.14)
ẋ = f0 (t, x),
avec f0 (t, x) ∈ conv f + (t, x), f − (t, x) ∩ Tx S . Ainsi, la dynamique de glissement est
donnée par :
dx hds, f − i + hds, f + i
= f − f −, (7.15)
dt hds, f − − f + i hds, f − − f + i
puisque dans ce cas, la convexication du champ de vecteurs s'exprime par
f0 (x, t) = αf + (t, x) + (1 − α)f − (t, x) et :
f0 ∈ Tx S ⇐⇒ hds, f0 i = 0, (7.16)
h i
hds,f − (t,x)i
ce qui nous conduit à α = hds,(f − (t,x)−f + (t,x))i
.
que l'on résoud en u si hds, g(t, x)i 6= 0, ce qui est équivalent à g(t, s) ∈/ Tx S . La
solution est :
hds, f (t, x)i
ueq = − . (7.21)
hds, g(t, x)i
1. pour tout (t, x), la fonction G(x)f (t, x, .) est globalement inversible sur U (do-
maine des commandes admissibles), avec G(x) la matrice jacobienne de s,
G(x) = (∂si /∂xj )i=1,...,m, j=1,...,n ;
280 Mathématiques pour les systèmes dynamiques
Equilibre
Les dénitions d'équilibre faible ou fort sont directement issues de celles des équa-
tions diérentielles ordinaires (chapitre 5) en tenant compte de la distinction précé-
dente.
Proposition 2. Une condition susante pour que xe soit un équilibre au sens faible
est que 0 ∈ F (t, xe ) pour tout t.
F (x) ∩ TK
B
(x) 6= ∅, ∀x ∈ K, (7.26)
où TKB (x) est le cône contingent (dit de Bouligand, ou tangent à K ) déni par :
xi − x
B
TK (x) , lim : lim xi ∈ K = x et ti & 0 .
i→∞ ti i→∞
Dans ce cas, la condition (7.26), dite aussi condition de tangence, est susante pour
l'existence un point d'équilibre faible dans K :
Notons que lorsque K est une variété diérentiable (c'est-à-dire lorsque la frontière
de K est susamment lisse, voir chapitre 4, page 151), TKB (x) est l'espace tangent à
K au point x.
Exemple 1. F dénie par graph(F ) = {(x, y) ∈ R × R : |x| + 3 ≥ |y| ≥ |x| − 3} est
continue et, pour tout x, l'ensemble F (x) est un compact, convexe non vide : donc,
pour tout x0 , il y a existence de trajectoires issues de ce point. Si K est la boule unité
fermée centrée en l'origine, la condition de viabilité est vériée et, dans cette boule,
on a bien l'existence d'au moins un équilibre faible 0 ∈ F (0) (il y en a d'autres : tout
point de [−3, 3]). Notons que les fonctions :
0 si |t| ≥ 1,
−(t + 1) si − 1 < t < − 12 ,
x(t) ≡ 0 et x(t) =
t
si − 12 ≤ t ≤ 12 ,
−(t − 1) si 12 < t < 1,
sont deux solutions du PC : ẋ ∈ F (x), x(0) = 0. L'origine n'est donc pas un équilibre
fort.
Naturellement, pour qu'un ensemble soit fortement invariant, il faut des conditions
supplémentaires : la multifonction F doit être localement lipschitzienne et, pour tout
x ∈ K, F (x) ⊂ TK
B
(x).
Avant tout, notons que si K ⊂ dom(F ) est un compact et si F vérie les hypo-
thèses du théorème 1, alors toute trajectoire issue d'un point intérieur à K vérie
les propriétés topologiques suivantes : elle atteint la frontière de K ou diverge, l'en-
semble limite positif (respectivement, négatif) associé vérie les propriétés cités au
théorème 8 du chapitre 5. Les propriétés de stabilité dénies dans ce même chapitre
sur les EDO, peuvent être adaptées en tenant compte de la note faite en introduc-
tion. A titre d'exemple, la stabilité exponentielle faible d'un point d'équilibre se dénit
comme suit.
282 Mathématiques pour les systèmes dynamiques
0 ∈ F (t, 0)
∃v(t, x) ∈ C 1 (R×K, R+ ), v(t, 0) = 0,
∂v ∂v
v̇ ∗ , sup ( + y) ≤ 0 sur R×K, (7.27)
y∈F (t,x) ∂t ∂x
où sign est dénie dans l'exemple précédent. En calculant sans aucune précaution la
dérivée de v = |x1 | + |x2 | le long des trajectoires de (7.34), on trouve v̇ = −3 −
2 sign(x1 x2 ) < 0 ! Cependant la méthode de Filippov pour x1 = 0 donne la dynamique
équivalente suivante : ẋ2 = 34 sign(x2 ), donc x2 diverge.
Théorème 8. [FIL 88] Si, dans le théorème 7, on remplace la condition de dié-
rentiabilité de v(t, x) par une condition de Lipschitz (en x) et si l'on remplace v̇ ∗
par :
d(v(t + h, x(t) + hy))
v̇ ∗∗ = sup , (7.35)
y∈F (t,x) dh h=0
où M est un ensemble de mesure nulle sur lequel 5v(t, x) (le gradient au sens clas-
sique) n'est pas déni. Ainsi, pour (7.5) et en considérant l'inclusion (7.6) avec F (t, x)
donnée par (7.9), on obtient :
* !+
\ F (t, x)
v̇ ∈ ξ, ,
p.p. 1
ξ∈∂v(t,x)
en déduit ξ∈∂v(x) −ξ T A(t, x)∂v(x) ≤ −h. Ceci montre que, pour v(x) ≤ ε, v̇ ≤ −h
p.p.
et la stabilité asymptotique de l'origine s'en suit.
Des résultats basés sur cette idée sont applicables pour le principe d'invariance
de La Salle. Sans en énoncer le résultat complet (voir [SHE 94] et, pour le résultat
standard, chapitre 5 page 219), nous illustrerons son usage sur l'exemple qui suit.
Exemple 8. (voir [SHE 94]) Soit l'oscillateur mécanique avec friction de Coulomb
modélisé par :
mẍ + b sign(ẋ) + kx = 0.
En prenant comme fonction de Liapounov l'énergie totale du système v(x) , 12 mẋ2 +
1
2
kx2 , v est diérentiable et on obtient :
kx
v̇ ∈ ẋ, −m
b
sign(ẋ) − k
m
x , (7.39)
p..p mẋ
avec x(t + (m − 1)δ) solution du pas précédent. La question est alors de savoir si,
pour δ → 0, la solution d'Euler approche, au moins aux instants d'échantillonnage,
une solution exacte du système d'inclusions diérentielles. Pour ceci, nous prendrons
deux exemples.
Exemple 9. On considère le système suivant :
ẋ = −x + u, t ∈ [t0 = 0, a], (7.44)
0 si x(t) = e−t ,
u(t) = 1 si x(t) > e−t ,
−1 si x(t) < e−t .
Pour la condition initiale x(0) = 1 et a = 1, la solution exacte est x(t) = e−t , alors
que la solution d'Euler tend vers x(t) = 2e−t − 1. Ici, la diculté provient du fait que
la solution exacte n'est pas une solution stable, au sens où, pour toute autre condition
initiale, la solution exacte s'écarte fortement de x(t) = e−t .
Exemple 10. Soit le système (7.44), mais avec :
0 si x(t) = e−t ,
u(t) = −1 si x(t) > e−t ,
+1 si x(t) < e−t .
Théorème 10. Soit une fonction vectorielle f (x, u), sélection de (7.43), dont on
suppose qu'elle vérie la condition de croissance linéaire suivante :
||f (x(t), u(t)|| ≤ k||x|| + c, ∀(t, x) ∈ [t0 , t0 + δ] × Rn . (7.45)
Alors, il existe au moins une solution d'Euler sur l'intervalle [t0 , t0 + δ]. De plus,
6
7.4. Exemples
Pour les simulations, la condition initiale sur le courant est choisie égale à zéro.
Nous voyons, sur la gure 7.6, l'évolution du courant I pour une période d'échan-
tillonnage δ égale à 10−4 s. L'épaisseur du trait correspond à ce que l'on nomme la
réticence (en anglais, chattering). Ainsi, le courant atteint en temps ni (' 0, 03 s) la
valeur désirée, puis oscille autour de celle-ci. Ceci est dû à la commutation de l'entrée
(gure 7.7). Pour un mode glissant d'ordre 1 (c'est-à-dire s = 0 au sens usuel et ṡ au
sens de Filippov), la réticence est proportionnelle à O(δ) ; ceci est illustré en compa-
rant, d'une part, des résultats de la gure 7.8 où la réticence a augmenté, la période δ
valant alors 10−3 s ; d'autre part, ceux de la gure 7.9 où la réticence a diminué, avec
δ = 10−5 s.
Equations diérentielles à discontinuités 289
3.5
2.5
1.5
0.5
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
100
80
60
40
20
−20
−40
−60
−80
−100
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
3.5
2.5
1.5
0.5
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
3.5
2.5
1.5
0.5
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Les modes glissants d'ordre supérieur ont été introduits dans les années 1970 par
l'école russe [FRID 96, LEV 93], dans le but de s'aranchir des problèmes engendrés
par la discontinuité de la commande et de minimiser les eets dûs à une commutation
non immédiate des actionneurs (la réticence est alors, comme on l'a vu dans l'exemple
précédent, en O(δ 2 )). De plus, les contraintes sur les actionneurs deviennent analogues
à celles produites par des commandes classiques (retour d'état, placement de pôle) :
ce dernier point ne sera pas illustré dans l'exemple ci-dessous et nous renvoyons à
[PER 02] pour plus de détails. Ici, dans un souci de brièveté, nous ne donnerons
qu'un exemple simple et assez éloigné des réalités pratiques.
,
Le type de commande par modes glissants représenté ci-dessus est appelé twisting
algorithm [LEV 93]. L'interrupteur a commute comme suit :
b=1 si Vs − 3 > 0,
b=0 si Vs − 3 ≤ 0.
La gure 7.11 montre la tension Vs pour δ = 104 s ; la gure 7.12 montre cette
même tension de sortie pour δ = 103 s. Nous constatons que la réticence est alors très
peu visible (elle est en O(δ 2 )). Il faut alors regarder le courant I qui est proportionnel
à la dérivée de la sortie pour obtenir une réticence en O(δ) (gures 7.13 et 7.14). Ici,
nous ne présenterons pas la théorie générale des modes glissants d'ordre supérieur
[LEV 93, PER 02] : nous nous contenterons simplement de prouver qu'il y a bien
convergence en temps ni de Vs vers 3 et que la dérivée de Vs tend elle aussi vers
zéro, également en temps ni (autrement dit, ici c'est V̈s qui est nulle au sens de
Filippov).
4
3.5
2.5
1.5
0.5
0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
ẋ1 = x2 ,
ẋ2 = −Vdis ,
292 Mathématiques pour les systèmes dynamiques
3.5
2.5
1.5
0.5
0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
10
−2
−4
−6
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
10
−2
−4
−6
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
R R
et nous obtenons alors : x1 (t) = x1 (0) + 0t x2 (τ )dτ et x2 (t) = 0t −Vdis (τ )dτ + x2 (0).
Comme les surfaces x1 = 0 (x2 ∈ R) et x2 = 0 (x1 ∈ R) sont coupées périodiquement8 ,
nous prenons comme conditions initiales x1 (0) = 0+ et x2 (0) = x2 (0) et nous nous
plaçons juste après la traversée de la variété (Vs = 3+ ). Ainsi, tant que la commande
Vdis n'a pas changé, nous obtenons :
t2
x1 (t) = −100 + x2 (0)t,
2
x2 (t) = −100t + x2 (0). (7.52)
L'équation (7.52) reste inchangée tant que la surface x2 = 0 n'est pas atteinte, c'est-
2 (0) (0)2
à-dire jusqu'au temps t2 = x100 et x1 (t2 ) = x2200 . Alors, la surface est coupée et
pour t ≥ t2 nous avons x2 ≤ 0 et x1 > 0, ce qui donne :
ẋ1 = x2 ,
ẋ2 = −20 sign(x1 ).
t23
x1 (t3 + t2 ) = −20 + x1 (t2 ) = 0,
2
x2 (t3 + t2 ) = −20t3 , (7.53)
2
2 (0)
d'où t23 = x2000 . La dérivée de x1 à l'instant t3 + t2 , c'est-à-dire sur la surface x1 = 0,
q
est égale à x2 (t2 + t3 ) = − 51 x2 (0). Nous avons donc |x2 (t2 + t3 )| < |x2 (0)|. Cela
génère une suite décroissante, qui commute de plus en plus vite. Mais atteint-on la
surface x1 = x2 = 0 en temps (noté) ni ? En notant t∞ ce temps, nous avons par
récurrence : ! r i
X
∞
1 1
t∞ = 1+ √ x2 (0).
i=0
5 2000
q
Comme 0 < 1
5
< 1, nous obtenons (pour x1 (0) = 0) :
r
5 1
t∞ = 1+ √ x2 (0).
4 2000
7.5. Bibliographie
[AUB 84] Aubin J-P., Cellina A., Dierential inclusions, Grundlehren der math.
Wissenschaften, 264, Springer Verlag, 1984.
[AUB 90] Aubin J-P., Frankowska H., Set-Valued Analysis, System & control :
Foundations & applications, Birkhauser, 1990.
[CLA 83] Clarke F.H., Optimization and nonsmooth analysis, Canadian Math.
Soc., Series of Monographs and Advanced Texts, Wiley Interscince, 1983.
[CLA 98] Clarke F.H., Ledyaev Y.S., Stern R.J., Wolenski P.R., Nons-
mooth analysis and control theory, Graduate Texts in Mathematics, Sprin-
ger Verlag, New-York, 1998.
[CRO 89] Crouzeix M., Mignot A.L., Analyse numérique des équations diéren-
tielles, Masson, 1989.
[EDW 98] Edwards C.K., Spurgeon S., Sliding mode control, theory and applica-
tions, Taylor and Francis, 1998.
[EME 67] Emel'Yanov S.V., Variable structure control systems, Nauka, 1967.
[FIL 88] Filippov A.F., Dierential equations with discontinuous right-hand sides,
Kluwer Academic Publ., 1988.
[FRID 96] Fridman L., Levant A., Higher order sliding modes as the natural
phenomenon in control theory , Robust control via variable structure and
Lyapunov techniques, Ed. F. Garafalo and L. Gliemo, Springer Verlag,
Berlin, n◦ 217, p. 107-133, 1996.
[LEV 93] Levant A., Sliding order and sliding accuracy in sliding mode control ,
Int. J. of Control, vol. 58, n◦ 6, p. 1247-1253, 1993.
[MON 95] Monaco S., Normand-Cyrot D., Functional expansions for nonlinear
discrete-time systems , Mathematical Systems Theory, vol. 21, p. 235-254,
1995.
[PER 02] Perruquetti W., Barbot J.P., Sliding mode control in engineering,
Control Eng. Series, vol. 11, Marcel Dekker, 2002.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[SHE 94] Shevitz D., Paden B., Lyapunov stability theory of nonsmooth sys-
tems , IEEE Trans. Aut. Control, vol. 39, n◦ 9, 1994.
[UTK 92] Utkin V., Sliding modes in control optimization, Springer Verlag, Berlin,
1992.
[ZIN 93] Zinober A.S., Variable structure and Lyapunov control, London, Springer
Verlag, 1993.
Chapitre 8
8.1.1. Contexte
L'objet de ce chapitre est d'introduire des outils facilitant l'expression formelle
et le calcul des développements fonctionnels associés aux évolutions en l'état et
en la sortie de systèmes non linéaires en temps discret. On dénit ainsi des ana-
logues temps discret des séries de Volterra qui caractérisent, en temps continu, les
fonctionnelles entrée-sortie et entrée-état de systèmes d'équations diérentielles for-
cées. Dans le cas continu, ces séries de Volterra sont l'expression formelle des solu-
tions d'un système d'équations diérentielles décrivant le système dynamique donné
[BRO 76, CRO 81, LES 78, RUG 80]. La convergence de ces fonctionnelles, ou séries
d'intégrales multiples des fonctions de commande, est garantie par des conditions
de bornitude sur les commandes et l'intervalle de temps d'intégration. Dans le cas
continu, les séries de Volterra généralisent au cas non linéaire, les séries de Peano-
Baker dont les coecients sont des produits de matrices, faisant ainsi référence à l'al-
gèbre linéaire [MAG 54, WON 79]. Les séries de Volterra, sont des développements
innis caractérisées par des noyaux d'ordre croissant, chaque noyau représentant le
coecient de l'intégrale itérée du même ordre. Il existe en temps continu, en particu-
lier dans le cas des systèmes décrits par des équations forcées anes en la commande
et analytiques en les variables d'état - systèmes linéaires analytiques - une vaste litté-
rature proposant des expressions formelles récurrentes de ces noyaux. Dans le cas plus
général d'équations non linéaires en x et u, il faut se référer à la vaste littérature russe
sur ce sujet, en particulier dans le contexte de la commande optimale, par exemple
[AGR 78, GAM 79]. On constate alors que ces développements récurrents sont dotés
de fortes propriétés combinatoires, mises en évidence dans le contexte mathématique
de l'intégration des systèmes dynamiques.
L'apport majeur des travaux menés dans le contexte de l'automatique a été de
spécier ces développements dans le cas des systèmes forcés et de tirer prot de la
présence des entrées pour les ordonner, les structurer, et faciliter ensuite l'analyse
des propriétés structurelles des systèmes dynamiques commandés associés. Deux ap-
proches s'enrichissent mutuellement : l'une géométrique, met en évidence des champs
de vecteurs canoniques et les propriétés de Lie des algèbres associées (par exemple
[HER 89, ISI 89]) ; l'autre algébrique et combinatoire, traduit en termes de théorie
des langages les propriétés de ces séries [FLI 90]. Ces outils, davantage visuels dans
le contexte géométrique et plus calculatoires dans le contexte algébrique, sont à la
base des progrès de l'automatique non linéaire, tant du point de vue de la compré-
hension des propriétés structurelles, commandabilité, observabilité, invariance, que
des propriétés de commande, linéarisation et stabilisation ou poursuite de trajectoire,
découplage, rejet de perturbations... La première application d'une compréhension
ne de ces développements est la réalisation de ces fonctionnelles par des dynamiques
plus simples, linéaires, bilinéaires, ou plus générales (voir par exemple [RUB 74]). Les
applications les plus récentes sont liées elles à la nécessité croissante de ne plus se
ramener à une analyse linéaire, par essence locale, par changements de coordonnées,
bouclage ou plus généralement par transformation, mais de prendre en compte les
termes d'ordre supérieur, c'est-à-dire les noyaux d'ordre supérieur dans le développe-
ment de Volterra. On approche ainsi une analyse globale des systèmes non linéaires.
Dans le cas discret, il n'y a pas dans la littérature l'équivalent discret des dévelop-
pements de Volterra. On manipule dans ce contexte des équations aux diérences du
premier ordre, dépendant des entrées et les intégrales multiples sont remplacées par
les compositions successives de fonctions. Dans le cas linéaire, les deux situations font
intervenir les mêmes outils, à savoir l'algèbre linéaire puisque la composition de fonc-
tions linéaires correspond au produit des matrices associées. Dans le cas d'équations
aux diérences linéaires en x, l'algèbre linéaire sut encore, les dicultés principales
se situant dans la non-linéarité en les variables de commande. Il est ainsi possible,
par l'introduction d'outils spéciques permettant d'appréhender la non linéarité en
les entrées, de faire un parallèle avec les approches et les résultats du continu. Ceci
a été fait dans le cas des systèmes bilinéaires, substitués dans le contexte discret par
des systèmes à état ane linéaires en x et polynomiaux en u, [FLI 80], [MON 83].
Dans le cas non linéaire général non-linéarité en x et u la représentation des
fonctionnelles entrée-état et entrée-sortie est un problème dicile, en général abordé
en termes d'approximations polynomiales. Citons la première étude complète sur le
sujet dans le cadre de la théorie du contrôle [SON 79a, SON 79b].
L'objet de ce chapitre est de présenter des outils introduits par les auteurs
en [MON 87, MON 89] pour caractériser les développements en séries des fonc-
tionnelles entrée-état et entrée-sortie de dynamiques non linéaires en temps dis-
cret. Ces techniques ont depuis conduit à l'introduction d'autres représentations
faisant référence à une famille de champs de vecteurs, dite canonique, car impli-
quée dans la caractérisation, en termes d'algèbres de Lie, des propriétés structu-
relles et de commande des systèmes non linéaires temps discret. Ces aspects ne se-
ront pas abordés dans ce chapitre, le lecteur interessé peut se référer par exemple à
[ALB 93, CAL 99, GRI 85, JAK 84, JAK 90, MON 83, MON 85, MON 86, MON 97].
Une autre conséquence a été la possibilité, grâce à ces outils, de paralléliser voire
d'unier les approches proposées en temps continu et temps discret. Ce parallèle est
intéressant si l'on rappelle que de nombreuses propriétés satisfaites en temps continu
ne sont pas maintenues sous échantillonnage. Disposer d'une étude, en certains points
uniée, permet de considérer comme cas particulier le cas des dynamiques échan-
tillonnées (par bloqueur d'ordre zéro, d'ordre supérieur ou autre échantillonneur).
On dispose alors d'un apparatus mathématique permettant d'étudier le maintien sous
échantillonnage des propriétés d'un schéma continu. Le cas des systèmes échantillon-
Systèmes non linéaires en temps discret 297
nés ne sera pas abordé ici (on peut se référer à l'article [MON 95] et aux références qu'il
contient sur le sujet). On pourra constater, par les techniques introduites, que l'étude
des systèmes non linéaires discrets reste plus dicile que son analogue continu, ce
qui explique une compréhension moins complète même si ce retard tend à se combler
grâce à un eort de recherche important dans ce domaine. En eet, le recours de plus
en plus généralisé aux techniques de simulation par calculateurs pour la prédiction, la
vérication et la commande de systèmes, de plus en plus complexes, voire hybrIes au
sens de la mixité événements discrets et dynamiques continues, rend incontournable
le passage au temps discret et échantillonné, pour appréhender commutations, sauts
et hétérogénéité. Cette diculté supplémentaire du cas discret ne doit pas surprendre
puisque l'on doit aborder une non-linéarité double en les variables d'entrée et d'état
il n'y a pas de bénéce à supposer une équation aux diérences linéaire en u, car
cette linéarité est perdue dès la première itération. En fait, il sera intéressant de remar-
quer que, par des techniques analogues à celles introduites dans le contexte discret,
on peut traiter le cas de dynamiques continues, soit non stationnaires, c'est-à-dire
dépendant du temps, soit non linéaires en les variables d'entrée.
Dans ce chapitre, après avoir caractérisé les développements de Volterra discrets
(section 2) et introduit les outils (section 3), on donnera l'expression des noyaux
en termes de ces outils (section 4). An de donner l'intuition des dicultés supplé-
mentaires du contexte discret, on spéciera l'expression des noyaux dans le cas de
systèmes linéaires analytiques (section 5). On illustrera ces techniques en traitant le
problème de la réalisation par modèle à état ane (section 6). Le cas des systèmes
linéaires et bilinéaires seront rappelés à titre d'exemple dans l'ensemble du chapitre.
Ces équations peuvent modéliser des phénomènes très variés : elles décrivent une large
classe de systèmes en temps discret, incluant les systèmes linéaires, bilinéaires ou à
état-ane, classes fréquemment étudiées dans la littérature et dont les dénitions
sont ci-dessous rappelées.
Les systèmes linéaires sont de la forme (8.1-8.2) avec F et H linéaires sur Rn+m ,
c'est-à-dire :
X
m
F (x, u) = Ax + uj Bj , (8.3)
j=1
X
m
Hi (x, u) = Ci x + uj Dij ,
j=1
X
m
Hi (x, u) = Ci x + uj Dij x,
j=1
Les systèmes à état ane [SON 79a] sont de la forme (8.1-8.2) avec, pour tout
vecteur d'entrée u xé, F (., u) ane par rapport à x et H(., u) linéaire en x, c'est-à-
dire :
X
m
F (x, u) = f0 (x) + uj gj (x), (8.6)
j=1
Hi (x, u) = hi (x).
les comportements entrée-état et entrée-sortie, à partir d'un état initial x(0), sont
décrits par les représentations explicites :
X
k−1
x(k) = γ 0 (k; x(0)) + γ 1 (k, τ ; x(0))u(τ ),
τ =0
X
k−1
= Ak x(0) + Ak−1−τ Bu(τ ),
τ =0
X
k−1
y(k) = w0 (k; x(0)) + w1 (k, τ ; x(0))u(τ),
τ =0
X
k−1
= CAk x(0) + CAk−τ −1 Bu(τ ),
τ =0
où γ 0 (k; x(0)) et w0 (k; x(0)) représentent respectivement les évolutions libres en l'état
et la sortie, ce qui correspond à la réponse pour des entrées nulles. Les γ 1 (k, τ ; x(0)) et
w1 (k, τ ; x(0)) sont les noyaux d'ordre 1 qui caractérisent respectivement la contribu-
tion linéaire de l'entrée sur l'état x(k) et la sortie y(k). Plus précisément, on calcule :
γ 0 (k; x) = Ak x = γ 0 (k)x,
w0 (k; x) = CAk x = w0 (k)x,
γ 1 (k, τ ; x) = Ak−τ −1 B = γ 1 (k − τ − 1),
w1 (k, τ ; x) = CAk−τ −1 B = w1 (k − τ − 1),
où l'on constate que les noyaux d'ordre zéro sont linéaires en x. Les noyaux d'ordre
1 sont indépendants de x et dépendent de la diérence k − τ − 1, ce qui exprime la
stationarité de la représentation par espace d'état linéaire.
On vérie facilement le passage de la forme explicite vers la forme implicite en
posant : Ax = γ 0 (1; x), Cx = w0 (0; x), B = γ 1 (1, 0; x).
réponse entrée-sortie :
X
k−1
+ γ 2 (k, τ 1 , τ 2 ; x(0))u(τ 1 )u(τ 2 ) + . . .
τ 1 ≥τ 2 =0
X
k−1
+ γ p (k, τ 1 , . . . , τ p ; x(0))u(τ 1 ) . . . u(τ p ) + . . .
τ 1 ≥···≥τ p =0
302 Mathématiques pour les systèmes dynamiques
X
k−1
+ w2 (k, τ 1 , τ 2 ; x(0))u(τ 1 )u(τ 2 ) + . . .
τ 1 ≥τ 2 =0
X
k−1
+ wp (k, τ 1 , . . . , τ p ; x(0))u(τ 1 ) . . . u(τ p ) + . . .
τ 1 ≥···≥τ p =0
!
X X X
∂Lf (h)(x) ∂h(x)
n n n
∂
= gi (x) = fj (x) gi (x),
∂x i x ∂x i ∂x j x
i=1 i=1 j=1 x
X ∂ 2 h(x)
n
X ∂h(x) ∂fj (x)
n
= fj (x)gi (x) + gi (x);
i,j=1
∂xi ∂xj x i,j=1
∂xj x ∂xi x
4. crochet de Lie [Lf , Lg ] : la composition ◦ n'est pas une opération interne dans
l'ensemble des opérateurs diérentiels du premier ordre. On dénit donc le
crochet de Lie de deux opérateurs, noté [Lf , Lg ], qui correspond au produit
antisymétrique de Lf et Lg par rapport à l'opération ◦ et qui, lui, est un
opérateur du premier ordre :
Exemple 2.
1 k
eLf (h) = h|x + Lf (h)|x + · · · + Lf (h) + · · · = h|eLf (x) , (8.15)
x
k! x
avec e (x) =
Lf Lf
e (I) .
x
Systèmes non linéaires en temps discret 305
Le lemme suivant doit être comparé à l'égalité (8.15), qui fait référence à la série
de Lie usuelle.
Lemme 1. Etant données deux fonctions analytiques f : Rn → Rn et h : Rn → R,
l'égalité suivante est vériée :
∆f (h)|x = h ◦ (I + f )(x) = h(x + f (x)). (8.18)
Démonstration : la preuve est une conséquence immédiate du développement de Tay-
lor de h(x + f (x)) en puissances de f (x) au voisinage de x :
1 ⊗2 1 ⊗p
h(x + f (x)) = h(x) + Lf (h)|x + Lf (h) x + · · · + L (h) x + . . .
2! p! f
= ∆f (h)|x .
Enn, ∆f ⊗ L⊗k
g agit sur h, toute fonction dérivable à tout ordre, comme suit :
X
∂h(x) ∂h(x)
n
∆f ⊗ Lg (h)|x = gi (x) = g(x),
i=1
∂xi x+f (x) ∂x x+f (x)
X
n
∂ 2 h(x)
∆f ⊗ L⊗2
g (h) x = gi1 (x)gi2 (x)
i1 ,i2 =1
∂xi1 ∂xi2 x+f (x)
∂ ⊗2 h(x)
= g ⊗2 (x), (8.22)
∂x⊗2 x+f (x)
⊗2
∂ ⊗2 h ∂h ∂h T
avec : = ,..., , g ⊗2 (x) = [g1 (x), . . . , gn (x)]⊗2 .
∂x⊗2 ∂x1 ∂xn
Systèmes non linéaires en temps discret 307
∂ ⊗k h(x)
∆f ⊗ L⊗k
g (h) = g ⊗k (x). (8.23)
x ∂x⊗k x+f (x)
Notons que l'égalité (8.21) est très utile pour les développements qui vont suivre,
car elle permet d'exprimer les coecients du développement en puissances des en-
trées des fonctionnelles entrée-état et entrée-sortie en termes des fonctions (f, g ) qui
dénissent la dynamique elle-même.
Exemple 3. Pour illustrer la technicité des calculs, on considère des fonctions poly-
nomiales f, g : R2 → R2 et h : R2 → R dénies par :
f : (x1 , x2 ) 7→ (x21 , x1 + x2 ), g : (x1 , x2 ) 7→ (x1 , x22 ), h : (x1 , x2 ) 7→ x1 x2 ,
∂h ∂h
∆f ⊗ Lg (h)|x = g (x) + g2 (x)
∂x1 x+f (x) ∂x2 x+f (x)
1
1
∆f (h)|x = h|x + Lf (h)|x + L⊗2 (h)|x
2 f
∂h ∂h ∂ 2 h
= x1 x2 + f (x) + f (x) + f1 (x)f2 (x)
∂x1 x ∂x2 x ∂x1 ∂x2 x
1 2
Les développements en puissances des entrées u(i), dont les coecients caracté-
risent exactement les noyaux de Volterra discrets des séries (8.11) et (8.12) respec-
tivement, peuvent maintenant être exprimés en fonction des opérateurs diérentiels
308 Mathématiques pour les systèmes dynamiques
y(k) = h(x(k)).
Pour les noyaux d'ordre supérieur à 1, on doit distinguer les produits d'entrées
au même instant et les produits d'entrées à des instants strictement croissants. Ceci
représente une des dicultés spéciques du temps discret.
Noyaux de Volterra d'ordre 2 :
pour τ 1 > τ 2 , coecient de u(τ 1 )u(τ 2 ) :
w2 (k, τ 1 , τ 2 ; x(0)) = ∆τf 2 ◦ ∆f ⊗ Lg1 ◦ ∆τf 1 −τ 2 −1 ◦ ∆f ⊗ Lg1 ◦ ∆fk−τ 1 −1 (h) ;
x(0)
w3 (k, τ 1 , τ 2 , τ 2 ; x(0)) =
1 τ2
∆f ◦ ∆f ⊗ (L⊗2 τ 1 −τ 2 −1
g1 + Lg2 ) ◦ ∆f ◦ ∆f ⊗ Lg1 ◦ ∆fk−τ 1 −1 (h) ;
2 x(0)
w3 (k, τ 2 , τ 2 , τ 3 ; x(0)) =
1 τ3
∆f ◦ ∆f ⊗ Lg1 ◦ ∆τf 3 −τ 2 −1 ◦ ∆f ⊗ (L⊗2 k−τ 2 −1
g1 + Lg2 ) ◦ ∆f (h) ;
2 x(0)
w3 (k, τ 1 , τ 1 , τ 1 ; x(0)) =
1 τ1
∆f ◦ ∆f ⊗ (L⊗3 k−τ 1 −1
g1 + 3Lg1 ⊗ Lg2 + Lg3 ) ◦ ∆f (h) .
3! x(0)
et on calcule facilement :
1 ⊗h
∆f (h)|x = h|x + Lf (h)|x + · · · + Lf (h) + . . .
k! x
de telle sorte que Lf (h)|x = ∂h f (x) = CAx, puisque L⊗2 (h)|x = 0. On ob-
∂x x f
tient ∆ f (h)|x = C(I + A)x et, itérativement, w0 (k; x) = C(I + A)k x = w0 (k)x, car
∆kf (I)x = (I +A)k x = γ 0 (k; x) = γ 0 (k)x. Les noyaux d'ordre zéro sont donc linéaires
en x. De la même façon :
∂h
∆f ⊗ Lg (h)|x = g(x) = CB,
∂x x+f (x)
et, pour p > 1 : ∆f ⊗ L⊗p
g (h) x = 0, d'où l'on déduit :
On retrouve le fait que les noyaux d'ordre 1 sont constants et ne dépendent que de la
diérence k − τ − 1.
on obtient alors :
X ui0 (0)
y(k) = ∆f + ∆f ⊗ Lg ◦ . . .
⊗i0
i0 ≥1
i0 !
X uik−1 (k − 1)
⊗ik−1
◦ ∆f + ∆f ⊗ Lg (h) ,
ik−1 !
ik−1 ≥1
x(0)
dénissant ainsi un développement de type Volterra. En égalant terme à terme les co-
ecients des développements en puissances des entrées des deux membres de l'égalité,
on calcule les noyaux successifs comme suit.
Evolution libre :
w0 (k; x(0)) = ∆kf (h)|x(0) .
Noyau d'ordre 1 :
1 −1
w1 (k, τ 1 ; x(0)) = ∆τf 1 ◦ ∆f ⊗ Lg ◦ ∆k−τ
f (h)|x(0) .
Noyaux d'ordre 2 :
pour τ 1 > τ 2 , coecient de u(τ 1 )u(τ 2 ) :
w2 (k, τ 1 , τ 2 ; x(0)) = ∆τf 2 ◦ ∆f ⊗ Lg ◦ ∆τf 1 −τ 2 −1 ◦ ∆f ⊗ Lg ◦ ∆k−τ
f
1 −1
(h)|x(0) ;
Noyaux d'ordre 3 :
pour τ 1 > τ 2 > τ 3 , coecient de u(τ 1 )u(τ 2 )u(τ 3 ) :
w3 (k, τ 1 , τ 2 , τ 3 ; x(0)) =
∆τf 3 ◦∆f ⊗Lg ◦∆τf 2 −τ 3 −1 ◦∆f ⊗Lg ◦∆τf 1 −τ 2 −1 ◦∆f ⊗Lg ◦∆fk−τ 1 −1 (h)|x(0) ;
pour τ 1 > τ 2 = τ 3 , coecient de u(τ 1 )u(τ 2 )2 :
w3 (k, τ 1 , τ 2 , τ 2 ; x(0)) =
1 τ2
∆ ◦ ∆f ⊗ L⊗2 τ 1 −τ 2 −1
g ◦ ∆f ◦ ∆f ⊗ Lg ◦ ∆fk−τ 1 −1 (h)|x(0) ;
2 f
pour τ 1 = τ 2 > τ 3 , coecient de u(τ 2 )2 u(τ 3 ) :
w3 (k, τ 2 , τ 2 , τ 3 ; x(0)) =
1 τ3
∆ ◦ ∆f ⊗ Lg ◦ ∆τf 2 −τ 3 −1 ◦ ∆f ⊗ L⊗2 k−τ 2 −1
g ◦ ∆f (h)|x(0) ;
2 f
pour τ 1 = τ 2 = τ 3 , coecient of u(τ 1 )3 :
1 τ1
∆ ◦ ∆f ⊗ L⊗3
w3 (k, τ 1 , τ 1 , τ 1 ; x(0)) = k−τ 1 −1
g ◦ ∆f (h)|x(0) .
3! f
On procède ainsi de suite pour wp (k, . . . , x0 ), p > 3.
Noyaux de Volterra d'ordre p : en notant r ≤ p le nombre de valeurs possibles
et diérentes des τ i , (i = 1, · · · p), ainsi que σ i le nombre de τ i égaux, on obtient
l'expression récurrente :
wp (k, τ 1 , · · · , τ 1 , τ 2 , · · · , τ 2 , · · · τ r , · · · , τ r ; x) =
∆f ⊗ L⊗σg
r
τ −τ −1 ∆f ⊗ Lg⊗σ r −1
∆τf r ◦ ◦ ∆f r−1 r ◦ ◦
σr ! σ r−1 !
∆f ⊗ L⊗σ 1
◦ ∆fk−τ 1 −1 (h) .
g
··· ◦
σ1! x
Les mêmes développements restent valables dans le cas des développements fonc-
tionnels entrée-état en posant h(x) = x. On obtient : γ (k; x0 ) = ∆kf (I)|x(0) ,
γ 1 (k, τ 1 ; x(0)) = ∆τf 1 ◦ ∆f ⊗ Lg ◦ ∆k−1−τ
f
1
(I)|x(0) et ainsi de suite pour les noyaux
d'ordre supérieur.
On remarque, comme précédemment, que ces expressions doivent être comparées
à celles obtenues en temps continu dans le cas d'équations diérentielles analytiques
en l'état et linéaires en la commande [ISI 89].
On introduit les noyaux w̃p (k, τ 1 , . . . , τ p ; x), de telle sorte que [MON 87] :
Le lemme suivant est énoncé pour les systèmes non linéaires (8.7)-(8.8), les gi (.)
représentant les coecients du développement de g(., u) en puissances de u.
Lemme 3. Pour le système (8.7)-(8.8), tout noyau d'ordre p ≥ 1 peut être calculé à
partir des évolutions libres γ 0 (k; x) et w0 (k; x) et des fonctions gi .
Pour les premiers noyaux on obtient :
pour τ 1 = τ 2 :
1
w̃2 (k, τ 1 = τ 2 ; x) =∆f ⊗ (L⊗2 g1 + Lg2 ) ◦ ∆f
k−τ 1 −1
(h)|x =
2
1 ∂ ⊗2 w0 (k − τ 1 − 1; x) ⊗2 ∂w0 (k − τ 1 − 1; x)
g 1 (x) + g2 (x)),
2 ∂x⊗2 x+f (x) ∂x x+f (x)
de telle sorte que w̃2 (k, τ 1 > τ 2 ; x) et w2 (k, τ 1 , τ 2 ; x) se déduisent de w0 (k; x),
γ 0 (k; x), g1 (x) et g2 (x). Le raisonnement reste valable pour les noyaux d'ordre
supérieur.
Systèmes non linéaires en temps discret 315
avec W11 (.) une matrice de dimension appropriée. Par rapport aux noyaux d'ordre
deux, on obtient :
∂w1 (k, τ 1 , ς) ∂γ 0 (τ 1 − τ 2 − 1, x)
w2 (k, τ 1 , τ 2 ; xe ) = g1 (xe )
∂ς ς=xe ∂x xe
1 1
= W21 (k − τ 1 − 1)W22 (τ 1 − τ 2 − 1),
1 ∂ w0 (k − τ 1 − 1; x)
⊗2
w2 (k, τ 1 , τ 1 ; xe ) = g1⊗2 (xe )
2 ∂x⊗2 x=xe
1 ∂w0 (k − τ 1 − 1; x) 2
+ 2
∂x g2 (xe ) = W21 (k − τ 1 − 1),
xe
où W21
2
(.), W21
1
(.) et W22
1
(.) sont des matrices de dimensions appropriées.
Le noyau d'ordre 1, w1 (k, τ 1 ; xe ) peut ainsi être réalisé par le système linéaire
ci-dessous avec pour état initial la condition z10 = 0, on pose :
z1 (k + 1) = A11 z1 (k) + B11 u(k),
y1 (k) = C11 z1 (k).
Pk−1 k−τ 1 −1
On vérie que y1 (k) = τ 1 =0 C11 A11 B11 u(τ 1 ).
Le noyau w2 (k, τ 1 , τ 2 ; xe ) peut être réalisé par le système bilinéaire ci-dessous avec
pour état initial la condition z20 = 0, on pose :
A121 0 0 1
B21 1
C22 0
z2 (k + 1) = 1 z2 (k) + z2 (k)u(k) + 1 u(k),
0 A22 0 0 B22
1
y2 (k) = C21 0 z2 (k).
Pk−1
On a : y2 (k) = τ 1 >τ 2 =0
1
C21 (A121 )k−τ 1 −1 B21
1 1
C21 (A122 )τ 1 −τ 2 −1 B22
1
u(τ 1 )u(τ 2 ).
systèmes nécessaires pour réaliser un nombre ni de noyaux. Ainsi, dans le cas présent,
en notant : A11 = A221 , C11 = C21
2
et en posant :
2 2
z4 (k + 1) = A11 z4 (k) + B11 u(k) + B21 u (k),
y4 (k) = C11 z4 (k),
De plus, si l'on considère deux conditions initiales z(0) et z 0 (0) dont la diérence
est un vecteur de V , alors les évolutions z(k) et z 0 (k) qui en sont issues par (8.30)-
(8.31) maintiennent cette propriété pour u = 0 ou pour ImB ⊂ V :
[z(0) − z 0 (0)] ∈ V ⇒ [z(k) − z 0 (k)] ∈ V.
et les évolutions partant d'un état initial dans V (z2 (0) = 0) donnent donc des sor-
ties identiquement nulles. Ainsi, la propriété V ⊂ ker C exprime l'impossiblité de
distinguer, par les sorties, des états appartenant à une même feuille.
En conclusion, si AV ⊂ V ⊂ ker C et u = 0 (ou Im B ⊂ V ), alors on a l'implication :
[z(0) − z 0 (0)] ∈ V ⇒ [z(k) − z 0 (k)] ∈ V ⇒ y(k) = y 0 (k) = y(0). Dans ce cas,
les évolutions de l'état partant de conditions initiales appartenant à une même feuille
appartiennent à tout instant à cette feuille, à laquelle est associée une sortie constante.
(P2) La condition supplémentaire : ∆ ⊂ ker dH , qui exprime que les feuilles sont
contenues dans les surfaces de niveau associées à la fonction de sortie H , implique,
d'après le choix de coordonnées : ∂z
∂ H̃
1
= 0, c'est-à-dire :
Les sorties associées à des états appartenant à une même feuille sont égales (ceci
généralise la condition linéaire V ⊂ ker C ).
320 Mathématiques pour les systèmes dynamiques
dans laquelle w(k) représente une entrée de perturbation. Les conditions supplémen-
taires : ∂F
∂w
⊂ ∆(F (·, u, w)) et ∆ ⊂ ker dH , entraînent l'existence d'un changement de
coordonnées transformant le système initial en le système :
z1 (k + 1) = Fe1 (z1 (k), z2 (k), u(k), w(k)),
z2 (k + 1) = Fe2 (z2 (k), u(k)),
y(k) = e 2 (k)).
H(z
8.7. Bibliographie
[AGR 78] Agrachev A.A., Gamkrelidge R.V., Exponential representations of
ows and the chronological calculus, Math. Sb., vol. 107, p. 467-532, 1978.
[ALB 93] Albertini F., Sontag E.D., Discrete-time transitivity and accessibi-
lity : analytic systems , SIAM J. Contr. Optimiz., vol. 33, p. 1599-1622,
1993.
[BRO 76] Brockett R.W., Volterra series and geometric control , Automatica,
vol.12, p. 167-176, 1976.
[CAL 99] Califano C., Monaco S., Normand-Cyrot D., A note on the
discrete-time normal form , IEEE Trans. Aut. Contr., 1999.
[CRO 81] Crouch P., Dynamical realizations of nite Volterra series , SIAM J.
Cont. Opt., vol. 19, p. 177-202, 1981.
[FLI 80] Fliess M., Generating series for discrete-time nonlinear systems , IEEE
Trans. Aut. Cont., vol. 25, 1980.
Systèmes non linéaires en temps discret 321
[FLI 90] Fliess M., Réalisation locale des systèmes non linéaires, algèbres de
Lie ltrées transitives et séries génératrices non commutatives , Invent.
Math., vol. 83, p. 521-537, 1990.
[FNC 81] Fliess M., Normand-Cyrot D., A Lie theoretic approach to nonlinear
discrete time controllability via Ritt's formal dierential groups , Syst.
and Control Letters, vol. 1, p. 179-183, 1981.
[GAM 79] Gamkrelidge R.V., Exponential representations solutions of ordinary
dierential equations, Lect. Notes Math., vol. 703, 1979.
[GRI 85] Grizzle J.W., Controlled invariance for discrete-time nonlinear systems
with an application to the disturbance decoupling problem , IEEE Trans.
Aut. Cont., vol. 30, p. 1517-1530, 1985.
[GRI 93] Grizzle J.W., A linear algebraic framework for the analysis of discrete-
time nonlinear systems , SIAM J. on Control Optimiz., vol. 31, p. 1026-
1044, 1993.
[GRO 73] Gröbner, Serie di Lie e Loro Applicazioni, Poliedro, Cremonese, Roma,
1973.
[HER 89] Hermes H., Distributions and the Lie algebras their bases can gene-
rate , Proc. Amer. Math. Soc., vol. 106, n◦ 2, p. 555-565, 1989.
[ISI 89] Isidori A., Nonlinear Control Systems, Springer Verlag, Berlin, 1989.
[JAK 84] Jakubczyk B., Normand-Cyrot D., Orbites de pseudo groupes de
diéomorphismes et commandabilité des systèmes non linéaires en temps
discret , C.R. Acad. Sc., Paris, t. 298, I, vol. 11, p. 257-260, 1984.
[JAK 90] Jakubczyk B., Sontag E.D., Controllability of nonlinear discrete-time
systems : a Lie algebraic approach , SIAM J. of Control & Optim., vol.
28, p. 1-33, 1990.
[LES 78] Lesiak, Krener A.J., The existence and uniqueness of Volterra series
for nonlinear systems , IEEE Trans. Aut.Cont., vol. 23, p. 1090-1095,
1978.
[MAG 54] Magnus W., On the exponential solution of dierential equations for a
linear operator , Communications on Pure and Applied Mathematics, vol.
7, p. 649-673, 1954.
[MON 83] Monaco S., Normand-Cyrot D., On the immersion of a discrete-
time polynomial system into a polynomial ane one , Systems and Cont.
Letters, vol. 3, p. 83-90, 1983.
[MON 85] Monaco S., Normand-Cyrot D., Invariant distributions for discrete-
time nonlinear systems , Systems and Control Letters, vol. 5, p. 191-196,
1985.
[MON 86] Monaco S., Normand-Cyrot D., Nonlinear systems in discrete-
time , Algebraic and geometric methods in nonlinear control theory, M.
Fliess and M. Hazenwinkel Eds., D. Reidel, p. 411-430, 1986.
[MON 87] Monaco S., Normand-Cyrot D., Finite Volterra series realizations
and input output approximations of nonlinear discrete-time systems , Int.
J. of Control, vol. 45, n◦ 5, p. 1771-1787, 1987.
[MON 89] Monaco S., Normand-Cyrot D., Functional expansions for nonlinear
discrete-time systems , Math. Sys. Theo.,vol. 21, p. 235-254, 1989.
[MON 95] Monaco S., Normand-Cyrot D., A unifying representation for nonli-
near discrete-time and sampled dynamics , Journal of Mathematical Sys-
tems, Estimation, and Control, vol. 7, p. 477-503, 1997.
322 Mathématiques pour les systèmes dynamiques
9.1. Introduction
par exemple [DUG 97, KOL 99, KON 86, KOS 96, LOR 97, NIC 97, NIC 01, RIC 98,
RIK 98] et les nombreuses références incluses). Dans ce chapitre, l'accent sera mis sur
les grandes lignes de la théorie des équations diérentielles à retards, permettant ainsi
l'accès aux méthodes et résultats concrets qui en découlent.
Une EDR est ainsi caractérisée par le fait que la valeur de la dérivée d'ordre le
plus élevé est dénie, pour chaque valeur de l'argument t, par les valeurs des dérivées
d'ordre plus faible prises en des arguments inférieurs ou égaux à t.
La pratique de la modélisation montre qu'à la quasi-unanimité, seules les équa-
tions de type retardé (9.2) ou neutre (9.3) sont utilisées pour représenter des proces-
sus réels. Comme dans le cas des équations diérentielles ordinaires, l'équation (9.1)
peut être réécrite sous la forme d'une équation diérentielle du premier ordre (impli-
quant la dérivée x = dx ) portant sur un vecteur x ∈ Rn de dimension plus grande
.
dt
(n = (m − 1) q) en prenant comme nouvelles inconnues les dérivées successives de y .
On aboutit ainsi aux EDR et EDN suivantes :
(9.5)
.
x(t) = f (t, x (t − h1 (t)) , ..., x (t − hk (t))) ,
(9.6)
. . .
x(t) = f t, x (t − h1 (t)) , ..., x (t − hk (t)) , x (t − gk (t)) , ..., x (t − gl (t)) .
Comme nous l'avons remarqué, toute EDF est une combinaison d'équations ordi-
naires et fonctionnelles et l'équation de type neutre (9.6) est équivalente au système
hybride suivant :
.
x(t) = y(t),
y(t) = f (t, x (t − h1 (t)) , ..., x (t − hk (t)) , y (t − gk (t)) , ..., y (t − gl (t))) .
Dans certains phénomènes, le retard peut dépendre d'une solution inconnue, c'est-
à-dire avoir la forme hi (t, x (t)) . De tels retards sont quelquefois dits autoréglants.
le problème de Cauchy classique pour les EDO (sans hérédité, sans fonction initiale).
Cependant, dans tous les cas, la valeur initiale x (t0 ) de la solution doit être prescrite.
Généralement (bien que cela ne soit pas nécessaire) la valeur initiale de la solution
x (t0 ) fait partie de
la fonction
initiale, c'est-à-dire que cette dernière est prescrite sur
l'intervalle fermé t0 , t0 avec ψ (t0 ) = x (t0 ) .
Soulignons que la solution x (t) doit être construite dans le sens des t croissants,
c'est-à-dire sur un intervalle J ayant comme extrémité gauche le point t0 ∈ J. Ceci
implique que x est à interpréter comme étant le prolongement de la fonction initiale,
x (t + θ) , ψ (t + θ) pour t + θ > t0 .
Nous considérerons ici le problème de Cauchy pour des EDR à retard ni, et
supposons que la solution appartient à C 1 (c'est-à-dire, est une fonction continûment
diérentiable de t). Le problème étudié est donc :
.
x(t) = f (t, xt ) , xt (θ) = x (t + θ) ∀θ ∈ [−h, 0] , (9.9)
xt0 = ψ. (9.10)
Ici, h ≥ 0 est une constante (nie), x (t) ∈ Rn , t0 ∈ R, et ψ : [−h, 0] → Rn . La solution
t 7→ x (t) (t ≥ 0) du problème (9.9) (9.10) est le prolongement de la fonction intiale
t 7→ x (t) (t0 − h ≤ t ≤ t0 ).
Dénition 1. Soit un intervalle J ayant t0 comme borne gauche (incluse). Une
fonction x ∈ C 1 (J) est une solution du problème de Cauchy (9.9) (9.10) sur cet
intervalle J si elle vérie l'équation (9.9) avec les conditions initiales x (t0 ) = ψ (t0 )
et (9.10) en tous les points de J (c'est-à-dire, xt (t + θ) = ψ (t + θ − t0 ) ∀t − θ < t0 ).
Théorème 1. Soient ψ ∈ C [−h, 0] et une fonction vectorielle f : D → Rn , continue
et vériant dans le voisinage de tout couple (t, ψ) ∈ D une condition de Lipschitz
par rapport à son deuxième argument ψ (la constante de Lispchitz correspondante
dépendant, en général, de ce couple). Alors il existe un point tψ , t0 < tψ ≤ +∞
dépendant de ψ, t0 , f, tel que :
La dernière proposition (d) signie que : ∀t1 ∈ [t0 , tψ ] et ∀ε > 0, ∃δ > 0 tel que si,
dans (9.9) (9.10), f et ψ sont remplacées par f et ψ vériant les mêmes propriétés et
avec :
ψ − ψ
< δ et
f (t, ψ) − f (t, ψ)
< δ pour t ∈ [t0 , t1 ] , (9.11)
C
alors la solution x du problème transformé vérie :
kx (t) − x (t)k < ε pour t ∈ [t0 , t1 ] . (9.12)
Par ailleurs, en prenant t − t0 comme nouvelle variable indépendante, il est possible
d'étudier de la même façon la dépendance de la solution envers le point initial t0 de
la même façon que sa dépendance envers f .
328 Mathématiques pour les systèmes dynamiques
Démonstration : [points (a) et (b)] en intégrant les deux membres de l'équation (9.9),
on constate que le problème (9.9)(9.10) est équivalent à l'existence d'une solution
continue pour l'équation intégro-diérentielle :
Zt
x (t) = ψ (0) + f (τ , xτ ) dτ , t ∈ Jx . (9.13)
t0
xk (t) = ψ k (t − t0 ) , t ∈ [t0 − h, t0 ] .
Equations diérentielles à retard 329
Eectuons le passage à la limite k → +∞ sur tout intervalle ci-dessus t0 , et en
utilisant la majoration suivante :
t
Z Zt
f k (τ , xkτ ) dτ − f (τ , xτ ) dτ
t0 t0
Z te Z et
≤
f (τ , xkτ ) − f (τ , xτ )
dτ − kf (τ , xkτ ) − f (τ , xτ )k dτ .
k
t0 t0
Les deux termes du membre de droite tendent vers 0 pour k → +∞ : le premier par la
convergence uniforme de f k vers f dans la bande t0 < t < t1 , kψ − xt k < ε ; le second
à cause des propriétés
de Lipschitz de f en ψ (dans la même bande). Donc, x vérie
(9.13) sur t0 , et avec la condition
initiale
(9.10). D'après
(c),
x (t) = x (t) , ∀t ∈ t0 , e
t .
Ceci étant vrai pour tout et ∈ t0 , t , il vient x t = x t , ce qui est impossible. Il
doit donc exister δ > 0 vériant (9.11), ce qui termine la preuve du point (d).
qui peut généralement être résolue pour la condition initiale x (t0 ) = ψ (t0 ), puisque
nous sommes dans le cas scalaire. Le résultat donne la solution sur [t0 , t0 + h], qui à
son tour conduit au deuxième pas de résolution pour t ∈ [t0 + h, t0 + 2h] , dans
lequel la fonction x (t − h) est connue, issue du pas précédent. Cette EDO est à son
tour résolue pour la condition initiale x (t0 + h) , et ainsi de suite.
Considérons par exemple le système suivant, où α est une constante :
(9.16)
.
x(t) = αx (t − h) ,
ψ (t) ≡ ψ 0 (constante) ∀t ∈ [t0 − h, t0 ] ,
330 Mathématiques pour les systèmes dynamiques
pour lequel la méthode pas à pas nous donne la solution, pour t ∈ [t0 , +∞[ :
X
+∞ k
α
x (t) = ψ 0 [t − t0 − (k − 1) h]k ω (t − t0 − (k − 1) h) , (9.17)
k!
k=0
signe(θ)
avec la notation ω (θ) , 1 + 2
.
La régularité de la solution croît donc avec le temps. Cette propriété est par ailleurs
une caractéristique générale des équations diérentielles retardées.
Nous supposerons que f (t, ϕ) est continue, bornée pour ϕ bornée, localement lip-
schitzienne en ϕ. La solution de (9.18) est notée x (t, t0 , ψ) .
Dénition 2. La fonction ϕe ∈ C [−h, 0] est un état d'équilibre de (9.18) si pour
tout t0 ∈ R, la solution x (t, t0 , ϕe ) existe et vérie x (t, t0 , ϕe ) = ϕe .
Théorème 2. [DAM 93] La fonction ϕe ∈ C [−h, 0] est un état d'équilibre de (9.18)
si et seulement si les trois conditions suivantes sont vériées :
Nous faisons ici l'hypothèse que le système (9.18) possède un équilibre, placé à
l'origine sans réduction de généralité, et donc que f (t, 0) ≡ 0.
Dénition 3. L'équilibre x = 0 du problème (9.18) (avec ψ = 0) est dit :
3. asymptotiquement stable s'il est stable et s'il existe η = η (t0 ) > 0 tel que
[ψ ∈ Bη ] ⇒ [limt→∞ x (t, t0 , ψ) = 0] ;
où l'intégrale est dénie au sens de Stieljes [RIC 01], avec K (θ) une matrice n × n
dont les coecients kij sont des fonctions de θ ∈ ]−∞, 0] et à variations bornées. La
transformation de Laplace appliquée à (9.19) conduit à :
sI − K (s) x (s) = ψ (0) + F (s) , s ∈ C,
Z−t Z0
avec F (t) = [dK (θ)] ψ (t + θ) , F (s) = e−sθ F (θ) dθ,
−∞ −∞
Z0 Z0
K (s) = esθ dK (θ) , x (s) = e−sθ x (θ) dθ.
−∞ −∞
Elle a généralement un nombre inni de solutions dans le plan complexe : dans le cas
contraire (nombre ni de racines) on parle d'EDR dégénérée.
Théorème 3. Le système (9.19) est asymptotiquement stable si les racines de (9.20)
sont dans le demi-plan gauche strict ( Réel(s) < 0) et si toutes les fonctions kij
(i,j=1,...,n) vérient :
Z0
|θ| |dkij (θ)| < +∞.
−∞
De nombreuses méthodes ont été élaborées pour localiser les racines de (9.20) (voir
par exemple [DAM 93, KON 86] ainsi que le Chapitre 10 de [RIC 01]). Le problème
n'est pas simple dès l'instant où l'ordre n grandit, ou bien lorsque quelques paramètres
de réglage (notamment le retard) sont conservés formellement.
Exemple 1. Considérons l'équation x. (t) = −x (t − 1) . Son équation caractéristique
est s + e−s = 0, dont les solutions s = α ± jβ sont en nombre inni. Le système n'est
donc pas dégénéré. Ici, s = −0.318 ± 1.337j est une estimation de la paire de racines
de plus grande partie réelle : il y a donc stabilité asymptotique6 . Par contre, le cas
5 Le théorème de Riesz [RIC 01] assure l'existence de la fonction (dite canonique) K im-
et supposons que le noyau k(s) est une fonction non croissante (dk (θ) ≤ 0), constante
sur l'intervalle θ ≤ −h < 0 (par conséquent, l'eet de retard à l'instant t est limité
aux instants [t − h, t]) :
Z0
(9.21)
.
x (t) = x (t + θ) dk (θ) .
−h
Z0
Re ∆ (s) = α − eαθ cos βθ dk (θ) = 0. (9.23)
−h
alors (9.26) est asymptotiquement stable pour tout retard h ∈ [0, hmax ] :
1h i− 1
2
hmax = λmax (B T B) , avec B = Q−T AT1 P (A0 + A1 ) Q−1 . (9.29)
2
pour une condition initiale ϕ ∈ Bη la solution x (t, t0 , ϕ) ne tende pas vers 0 quand
t → +∞. Alors, il doit exister ε > 0 et une suite {ti } , limi→+∞ ti → +∞ tels que
336 Mathématiques pour les systèmes dynamiques
.
kx (ti , t0 , ϕ)k ≥ ε. Or,
x (t, t0 , ϕ)
≤ c < ∞ et donc ti+1 − ti ≥ 2∆, ∆ = 2c ε
,
et kx (ti + τ , t0 , ϕ)k ≥ 2 pour tout τ tel que |τ | ≤ ∆. Pour ces instants τ , (9.31)
ε
.
implique que pour un α > 0, V (ti + τ , xti +τ ) ≤ −α. Notons V (t) = V (t, xt ) et
P (t) le nombre de points ti tels que t0 + ∆ ≤ ti ≤ t − ∆. Alors, V (t) − V (t0 ) ≤
N
t0 +∆≤ti ≤t−∆ [V (ti + ∆) − V (ti − ∆)] ≤ −2∆αN (t) . Comme N (t) → +∞ pour
t → +∞, on en déduit que V (t) → −∞ pour t → +∞, ce qui est impossible car
V (t) ≥ 0.
Exemple 3. Considérons l'équation scalaire
Z +∞
(9.32)
.
x (t) = −ax (t) + x (t − θ) dk (θ) , t ≥ 0,
0
où a est une constante positive et k (t) est une fonction à variation bornée sur [0, +∞[ .
Considérons la fonctionnelle de Liapounov suivante :
Z +∞ Z t
V (t, xt ) = x2 (t) + |dk (θ)| x2 (τ ) dτ . (9.33)
0 t−θ
Remarquons que :
Z Z Z
+∞ +∞ +∞
2 x (t) x (t-θ) dk (θ) ≤ x2 (t) |dk (θ)| + x2 (t-θ) |dk (θ)| .
0 0 0
puisque sous ces deux conditions les hypothèses (9.30) (9.31) sont validées.
Exemple 4. La démonstration du théorème 6 utilise h la fonctionnelle
Rt
dei Liapou-
nov V = V1 + V2 , V1 = αy(t)T P y(t), y(t) = z(t) + t−τ A1 z(θ)dθ , V2 =
Rt hR i
z T (v)QT Qz(v)dv dθ. En remarquant que y(t) = (A0 + A1 ) z(t), on vériera
t .
t−τ θ
.
que la dérivée V est négative sous la condition (9.29).
exemple [DUG 97, KOL 92, KON 86, NIC 97] et les références incluses). Les théo-
rèmes qui suivent sont une application du théorème 7 aux systèmes linéaires, per-
mettant de formuler des conditions de stabilité en terme d'existence d'une solution
positive dénie à certaines équations de Riccati (voir le chapitre 9 de [RIC 01]) auxi-
liaires. Pour ne pas alourdir la présentation, nous traiterons ici les seuls systèmes à
retards ponctuels :
X
m
ẋ(t) = Ai x(t − hi ). (9.34)
i=1
Un cas plus général, incluant les modèles à retards distribués, est traité dans
[KOR 99]. De même, les conditions peuvent plus généralement concerner la stabi-
lité dépendante de certains retards et indépendante des autres [KNR 99]. Notons que
les équations de Riccati obtenues conduisent, à leur tour, à des conditions de type
LMIs (voir [RIC 01] chapitre 12).
Nous utiliserons les notations suivantes :
X
m X
m
A= Ai , Aij = Ai Aj , hij = hi + hj , h= hi .
i=1 i=1
Théorème 8. Le système (9.34) est asymptotiquement stable si, pour deux matrices
symétriques et dénies positives R, Q, il existe une matrice dénie positive P solution
de l'équation de Riccati :
X
m
AT P + P A + mRh + P hi Aij R−1 ATij P = −Q. (9.35)
i,j=1
Théorème 10. Le système (9.34) est asymptotiquement stable si, pour deux matrices
symétriques et dénies positives R, Q, il existe une matrice dénie positive P solution
de l'équation de Riccati :
X
m
AT P + P A + (hi P Ai R−1 BiT P + mhATi RAi ) = −Q. (9.37)
i=1
338 Mathématiques pour les systèmes dynamiques
Remarque 1. Si dans les trois théorèmes précédents, les retards hi sont tous nuls, les
trois équations de Riccati coïncident avec l'équation de Liapounov du système linéaire
ordinaire ẋ = Ax et les conditions susantes présentées sont également nécessaires.
Ceci donne à penser que ces conditions sont peu conservatives pour des retards faibles.
Exemple 5. Considérons le système du second ordre avec un nombre quelconque m
de retards hi ≥ 0 (et α, β deux constantes) :
X
m
−α β
ẋ(t) = B x(t − hi ), B= .
−β −α
i=1
Les coecients des matrices A (t) = (aij (t)) et B (t) = (bij (t)) , ainsi que le re-
tard h (t) ≥ 0, sont supposés continus. Nous emploierons les notations A+ (t) et
|B (t)| , |x (t)| dénies dans la section Notations complémentaires .
Considérons une fonction de comparaison z (t) ∈ Rn vériant l'inégalité diéren-
tielle :
z(t) ≥ A+ (t) z (t) + |B (t)| z (t − h (t)) , (9.40)
.
∀t ≥ t0 ,
|z (t0 + θ)| ≥ |ϕ (θ)| , ∀θ ≤ 0. (9.41)
Théorème 11. Pour toute fonction z (t) satisfaisant (9.40) (9.41), on a :
z (t) ≥ |x (t)| ≥ 0 ∀t ∈ R,
où x (t) est la solution du système (9.38) (9.39).
Démonstration : montrons tout d'abord que si ϕ 6= 0, alors z (t) ≥ 0, ∀t ≥ t0 8 . D'après
(9.41), ceci est vrai pour t = t0 . Par contradiction, notons τ > t0 le premier point où
une composante de z s'annule, zj (τ ) = 0. En ce point, d'après (9.40), z j (τ ) ≥ 0 et
.
x (t0 + θ) = (1 − ε) ϕ (θ) ,
ε
∀θ ≤ 0. (9.43)
Montrons que :
|xε (t)| < z (t) ,
∀t ≥ t0 . (9.44)
D'après (9.41) (9.43), (9.44) est vraie pour t = t0 . Par contradiction, notons τ >
t0 le premier point
où
l'inégalité stricte (9.44) devient une égalité pour une de ses
composantes, xεj (τ ) = zj (τ ) . Considérons tout d'abord le cas xεj (τ ) > 0. D'après
(9.42) (9.41),
xj (τ ) − z j (τ ) ≤ −εxεj (τ ) + A (τ ) xε (τ ) − A+ (τ ) z (τ )
.ε .
+ B (τ ) xε (τ − h (τ )) − |B (τ )| z (τ − h (τ ))
≤ −εxεj (τ ) + A+ (τ ) [|xε (τ )| − z (τ )]
+ |B (τ )| [|xε (τ − h (τ ))| − z (τ − h (τ ))]
≤ −εxεj (τ ) < 0.
Ceci contredit la dénition de τ . Le cas xεj (τ ) < 0 se traite de même, conduisant à
−xj (τ )− z j (τ ) ≤ εxεj (τ ) < 0. La preuve est obtenue en passant à la limite, en notant
.ε .
ainsi que du lemme suivant permettant de conclure à la stabilité des systèmes linéaires
stationnaires obtenus par majoration.
8
on peut plus strictement montrer kz (t)k > 0 en utilisant un passage à la limite analogue
à celui de la deuxième partie de cette démonstration.
340 Mathématiques pour les systèmes dynamiques
0≤θ≤h1 0≤θ≤h2
Cette deuxième condition est indépendante du retard, mais nécessite que A+ soit
une matrice de Hurwitz. Elle ne permet donc pas d'étudier un éventuel eet stabilisant
de la partie retardée B (t). Par contre, la précédente, qui dépend de la valeur maximale
du retard hmax , nécessite la stabilité asymptotique de (A + B 0 )+ mais non celle de A.
(théorème 4), qui est un cas particulier de l'intégrale de Stieljes (9.21) avec :
0 si θ < −h,
k (θ) =
γ si θ ≥ −h.
9.7. Bibliographie
[BEL 63] Bellman R., Cooke K.L., Dierential dierence equations, Academic
Press, New York, 1963.
[BOR 02] Borne P., Richard J.P., Dambrine M., Perruquetti W., Vector
Lyapunov functions : Nonlinear, time-varying, ordinary and functional dif-
ferential equations , in Stability theory at the end of the XXth century,
Taylor & Francis, London, p. 49-73, 2002.
[BUR 85] Burton T.A., Stability and periodic solutions of ordinary and functional
dierential equations, Academic Press, Orlando, vol. 178, 1985.
[COR 80] Corduneanu C., Lakshmikantham V., Dierential-dierence equa-
tions, Academic Press, 1963.
[CRY 72] Cryer C.W., Numerical methods for functional dierential equations ,
in Delay and functional dierential equations and their applications , Aca-
demic Press, New York, 1972.
[DAM 93] Dambrine M., Contribution à l'étude de la stabilité des systèmes à re-
tards, Thèse de l'Université des sciences et technologies de Lille, n◦ 1386,
21 octobre 1993.
[DAM 93] Dambrine M., Richard J.P. Stability analysis of time-delay systems ,
Dynamic Syst. & Applications, n◦ 2, p. 405-414, 1993.
342 Mathématiques pour les systèmes dynamiques
[DAM 94] Dambrine M., Richard J.P., Stability and stability domains analysis
for nonlinear, dierential-dierence equations , Dynamic Syst. & Applica-
tions, n◦ 3, p. 369-378, 1994.
[DIE 95] Diekmann O., von Gils S.A., Verduyn Lunel S.M., Walther H.O.,
Delay equations, functional, complex and nonlinear analysis , Applied
Math. Sciences, 110, Springer, 1995.
[DRI 77] Driver R.D., Ordinary and delay dierential equations , Applied Math.
Sciences, Springer, 1977.
[DUG 97] Dugard L., Verriest E.I. (Eds.), Stability and control of time-delay
systems, Lecture Notes in Control and Inform. Sc., n◦ 228, Springer Verlag,
1997.
[ELS 73] El'sgol'ts L. E., Norkin S.B., Introduction to the theory and application
of dierential equations with deviating arguments, Academic Press, New
York, 1973.
[GOP 92] Gopalsamy K., Stability and oscillations in delay dierential equations of
population dynamics, Kluwer Academic Publ., 1992.
[GOR 89] Gorecki H., Fuksa S., Grabowski P., Korytowski A., Analysis
and synthesis of time delay systems , John Wiley & Sons, 1989.
[GOU 02] Gouaisbaut F., Perruquetti W., Richard J.P., Sliding mode
control for systems with time delay , Chapitre 11 de Sliding mode control
in engineering, Control Eng. Series, vol. 11, Marcel Dekker, 2002.
[GOU 97] Goubet-Bartholoméüs A., Dambrine M., Richard J.P., Stability
of perturbed systems with time-varying delay , Syst. & Control Letters,
n◦ 31, p. 155-163, 1997.
[HAL 66] Halanay A., Dierential equations : stability, oscillations, time lags, Aca-
demic Press, New York, 1966.
[HAL 91] Hale J.K., Verduyn Lunel S.M., Introduction to functional dierential
equations, Applied Math. Sciences, 99, Springer Verlag, 1991.
[KOL 92] Kolmanovskii V.B., Myshkis A.D., Applied theory of functional die-
rential equations, Kluwer Acad. Publ., 1992.
[KOL 99] Kolmanovskii V.B., Myshkis A.D., Introduction to the theory and ap-
plications of functional dierential equations, Kluwer Acad. Publ., 1999.
[KNR 99] Kolmanovskii V.B., Niculescu S.I., Richard J.P., On the
Lyapunov-Krasovskii functionals for stability analysis of linear delay sys-
tems , Int. J. Control, 72, p. 374-384, 1999.
[KON 86] Kolmanovskii V.B., Nosov V.R., Stability of functional dierential
equations, Academic Press, Londres, 1986.
[KOR 99] Kolmanovskii V.B., Richard J.P., Stability of some linear systems
with delays , IEEE Trans. Automat. Contr., vol. 44, n◦ 5, p. 984-989, 1999.
[KOS 96] Kolmanovskii V.B., Shaikhet L.E., Control of systems with after eect,
American Math. Society, RI, vol. 157, 1996.
[KUA 93] Kuang Y., Delay dierential equations with applications in population
dynamics, Academic Press, 1993.
[LAK 69] Lakshmikantham V., Leela S., Dierential and integral inequalities,
vol. II, Academic Press, New York, 1969.
[LOI 97] Loiseau J.J., Brethé D., 2D exact model matching with stability,
the structural approach , Bulletin of the Polish Acad. of Sc., Technical
Sciences, vol. 45, n◦ 2, p. 309-317, 1997.
Equations diérentielles à retard 343
[LOR 97] Loiseau J.J., Rabah R.(Eds.), Analysis and Control of Time-Delay
Systems , numéro spécial du Journal Européen des Systèmes Automatisés,
n◦ 6, Hermès, 1997.
[MCD 78] MacDonald N., Time lags in biological models, Lecture Notes in Bioma-
thematics, n◦ 27, Springer Verlag, 1978.
[MOO 00] Moog C.H., Castro-Linares R., Velasco-Villa M., Marquez-
Martinez L.A., The disturbance decoupling problem for time-delay non-
linear systems , IEEE Trans. Automat. Control, vol. 45, n◦ 2, p. 305-309,
2000.
[MOU 98] Mounier H., Rudolph J., Flatness based control of nonlinear delay
systems : a chemical reactor example , Int. J. Control, 71, p. 871-890,
1998.
[MYS 49] Myshkis A.D., General theory of dierential equations with delay ,
Uspehi Mat. Nauk., vol. 4, n◦ 5, 99-141, 1949 (en russe). Trad. anglaise
1951 : Transl. AMS, n◦ 55, p. 1-62.
[MYS 51] Myshkis A.D., Linear dierential equations with delay , Nauka, 1972
(éd. orig. 1951 ; Trad. allemande : Lineare dierentialgleichungen mit na-
cheilendem argument, VEB Deutsch. Verlag, Berlin, 1955).
[NIC 97] Niculescu S. I., Systèmes à retard. Aspects qualitatifs sur la stabilité et la
stabilisation, Diderot Multimedia, Paris, série Nouveaux Essais , 1997.
[NIC 01] Niculescu S. I., Delay eects on stability, Lecture Notes in Control and
Inform. Sc., n◦ 269, Springer Verlag, 2001.
[PIC 98] Picard P., Ku¢era V., Lafay J.F., Model matching for linear systems
with delays and 2D systems , Automatica, vol. 34, n◦ 2, p. 183-193, 1998.
[RIC 98] Richard J.P., Some trends and tools for the study of time delay sys-
tems , Conférence plénière, 2nd Conf. IMACS-IEEE CESA'98 (Computa-
tional Eng. in Systems Applic.), vol. P, p. 27-43, Tunisie, avril 1998.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès, Traité
IC2, 2001.
[RIG 97] Richard J.P., Goubet-Bartholoméüs A., Tchangani P.A., Dam-
brine M., Nonlinear delay systems : tools for a quantitative approach to
stabilization , chapitre 11 de [DUG 97], 1997.
[RIK 98] Richard J.P., Kolmanovskii V.B. (Eds.), Delay systems , numéro
spécial de Mathematics & Computers in Simulation, vol. 45, n◦ 3-4, 1998.
[SEN 94] Sename O., Sur la commandabilité et le découplage des systèmes linéaires
à retards, Thèse de l'Université de Nantes - Ecole Centrale de Nantes,
octobre 1994.
[STE 89] Stépán G. Retarded dynamical systems : stability and characteristic
functions , Research Notes in Math. Series, 210, John Wiley & Sons, 1989.
[TCH 98] Tchangani P.A., Dambrine M., Richard J.P., Kolmanovskii
V.B., Stability of nonlinear dierential equations with distributed delay ,
Nonlinear Analysis : Theory, Methods & Appl., 34, p. 1081-1095, 1998.
[VOL 09] Volterra V., Sulle equazioni integrodienziali della teorie dell' elasti-
cita , Atti. Accad. Lincei (18) 295, 1909.
[VOL 31] Volterra V., Théorie mathématique de la lutte pour la vie, Gautier-
Villars, 1931.
[WAT 96] Watanabe K., Nobuyama E., Kojima K., Recent advances in control
of time-delay systems : a tutorial review , Proc. 35th Conf. Decision &
Control, Kobe, Japon, p. 2083-2089, 1996.
Chapitre 10
10.1. Introduction
∂2y
+ Px,t (Dx )y = f dans Ω × ]0, tf [ ,
∂t2
où l'opérateur Px,t (Dx ) est un opérateur diérentiel linéaire ne comportant que des
dérivations par rapport à x, associé à des conditions de bord convenables et des
conditions initiales en nombre susant pour assurer l'existence d'une solution (le
problème est alors bien posé, au sens de Hadamard [HAD 32]) et f = f (x, t) est une
distribution donnée qui contient la commande dans le cas des problèmes à commande
interne.
Remarque 1. En toute rigueur, les propriétés de parabolicité et d'hyperbolicité ne
sont acquises que pour des EDP (et pas des systèmes d'EDP) et pour des opérateurs
Px,t (Dx ) elliptiques, c'est-à-dire dont le polynôme caractéristique relatif aux termes
dérivés d'ordre le plus élevé n'a pas de racine réelle en (x, t) non nulle [DAU 88].
Par exemple, le modèle parabolique de la diusion de la chaleur concerne tous
les problèmes de conduction thermique (échangeurs thermiques, fours à combustion,
processus de séchage, climatisation, etc.) pour lesquels la température constitue une
variable distribuée à asservir. Les problèmes de contrôle des vibrations dans les struc-
tures mécaniques exibles (robotique, applications spatiales) [BAL 82] correspondent,
eux, à des modèles hyperboliques du type de l'équation des ondes où la variable dis-
tribuée est un déplacement. Les problèmes relevant de la mécanique des uides, qui
interviennent entre autres en aérodynamique, dans les turbo-machines, les échangeurs
de chaleur ou les réacteurs nucléaires, sont également modélisés par des SPD. La plu-
part des réacteurs chimiques correspondent aussi à une modélisation sous forme SPD
puisqu'ils sont généralement le siège de phénomènes de diusion à la fois de chaleur
et de matière, les variables distribuées étant la température et les concentrations des
réactants.
Les processus dont l'espace d'état est de dimension innie peuvent être régis
par d'autres types d'équations comme les équations intégrales, les équations intégro-
diérentielles ou les équations à retards. Pour simplier, nous limitons ce chapitre au
cas des SPD de type EDP, les outils mathématiques présentés pouvant s'appliquer
de façon analogue aux autres modèles, moyennant une dénition adaptée des espaces
fonctionnels.
Le chapitre est composé de quatre parties. Les trois premières regroupent les
notions d'analyse fonctionnelle fort utiles pour aborder les concepts classiques de
l'automatique linéaire généralisés au cas de la dimension innie. Les principales dé-
nitions et caractérisations des opérateurs sont données dans les parties 10.2 et 10.3 ;
la théorie des semi-groupes, qui constitue la base de la théorie dans l'espace d'état
des systèmes linéaires de dimension innie, fait l'objet de la partie 10.4. Les résul-
tats et les théorèmes sont donnés sans démonstration et tirés des ouvrages d'analyse
fonctionnelle [KAT 66, YOS 66], mais également d'ouvrages relatifs à l'analyse et à
la synthèse de commandes de SPD comme [BAN 83, CUR 95, LIO 68].
L'étude des propriétés spectrales d'un opérateur (présentée dans la partie 10.3)
trouve une application importante en automatique dans l'approche fréquentielle des
SPD. Nous n'abordons pas cette approche ici, mais les résultats récents concernant
ce sujet sont largement développés dans [CUR 95].
L'étude théorique des systèmes non linéaires de dimension innie restant souvent,
du moins dans le cas de modèles non académiques, un problème ouvert, nous présen-
tons, dans la dernière partie (10.5), diérentes méthodes d'approximation permettant
d'obtenir une modélisation en dimension nie des SPD linéaires et non linéaires, adap-
tée au problème d'observation et de commande posé. Le lecteur trouvera également
des développements sur ce sujet ainsi que sur l'identiabilité et l'estimation de para-
Systèmes à paramètres distribués 347
Espaces de Banach
1 Rappelons qu'une suite {xn } d'éléments de (V, k.kV ) est dite de Cauchy si :
lim kxn − xm kV = 0.
n→∞, m→∞
348 Mathématiques pour les systèmes dynamiques
Exemple 1. L'espace C [0, 1] des fonctions continues sur [0, 1] , muni de la norme
kxk∞ = sup |x (t)| , est un espace de Banach car toute suite uniformément conver-
t∈[0,1]
gente de fonctions continues converge vers une fonction continue ; par contre, C [0, 1]
1 1/2
R
muni de la norme kxk = |x (t)|2 dt n'est pas complet, puisque la suite de
0
Cauchy des fonctions {xn } de C [0, 1] dénies par :
0 si 0 ≤ t ≤ 1/2 − 1/n,
xn (t) = nt/2 − n/4 + 1/2 si 1/2 − 1/n ≤ t ≤ 1/2 + 1/n,
1 si 1/2 + 1/n ≤ t ≤ 1,
si 0 ≤ t < 1/2
0
converge vers x (t) = ∈
/ C [0, 1] .
s i 1/2 ≤ t < 1
1
Cependant, l'obtention d'un espace de Banach à partir d'un espace vectoriel normé
(V, k.kV ) est assurée par le théorème suivant [YOS 66].
Théorème 1. Pour tout espace (V, k.kV ), il existe un espace de Banach VB et
une application linéaire injective f : V → VB telle que f (V ) soit dense dans VB
et kf (x)kVB = kxkV pour tout x de V . L'espace (VB , k.kVB ) est la complétude de
(V, k.kV ).
1 1/2
R
Ainsi, la complétude de C [0, 1] muni de la norme kxk = |x (t)|2 dt est
0
l'espace L2 (0, 1) (voir [RIC 01] page 98).
Espaces de Hilbert
2 L'espace F (Ω) désignant l'espace vectoriel des fonctions C m (Ω) à support com-
pact inclus dans Ω, on note S0m (Ω) la fermeture de F (Ω) dans S m (Ω) et on montre
que S0m (Ω) = S m (Ω) pour m = 0 ou si Ω = Rn .
L'existence d'un produit scalaire permet de dénir :
la notion d'orthogonalité : deux vecteurs x et y de H sont orthogonaux si hx, yi =
0;
le sous-espace orthogonal d'un Hilbert V :
V ⊥ = {x ∈ H, hx, yi = 0 ∀y ∈ V } ;
où hx, φn i sont les coecients de Fourier de x dans la base {φn }. Le produit scalaire
et la norme s'écrivent alors :
P
∞
hx, yi = hx, φn i hy, φn i,
n=1
1/2
P
∞
kxkH = |hx, φn i|2 .
n=1
P
N
orthonormée d'un Hilbert H , la projection orthogonale hx, φn i φn de x sur le
n=1
sous-espace vectoriel de dimension nie N engendré par les {φn , 1 ≤ n ≤ N } est la
meilleure estimation à l'ordre N de x, c'est-à-dire que seule une augmentation de
l'ordre N peut améliorer cette approximation.
T −1 T x1 = x1 , ∀x1 ∈ D (T ) ,
T T −1 x2 = x2 , ∀x2 ∈ T (D (T )) .
Théorème 2. L'inverse d'un opérateur linéaire est un opérateur linéaire.
Dénition 4 (Opérateur borné). Un opérateur linéaire T de D (T ) ⊂ V1 → V2
est borné si :
∃c ∈ R tel que ∀x ∈ D (T ) , kT xkV2 ≤ c kxkV1 ,
Cette propriété sera surtout utilisée dans le cas d'un opérateur T (t) fonction de la
variable de temps t ∈ [0, tf ] ⊂ R, sous la forme suivante : T (t) ∈ B (V1 , V2 ) est
uniformément continu à t0 si :
lim kT (t) − T (t0 )kB(V1 ,V2 ) = 0.
t→t0
Les opérateurs fermés constituent une classe importante d'opérateurs, non néces-
sairement bornés, auxquels peuvent être étendues de nombreuses propriétés relatives
aux opérateurs bornés.
Dénition 10 (Opérateur fermé). Un opérateur linéaire T de V1 → V2 est fermé
si son graphe G (T ) = {(x, T x) , x ∈ D (T )} est un sous-espace fermé de V1 × V2 ,
c'est-à-dire si :
∀xn ∈ D (T ) , n ∈ N
lim xn = x =⇒ x ∈ D (T ) et T x = y. (10.4)
n→∞
lim T xn = y
n→∞
Un espace V est réexif s'il est en bijection isométrique avec son bidual V 00 ,
0 0
(V ) .
Exemple 4. 1. Si 1
p
+ 1
q
= 1 et 1 < p < ∞, alors (Lp (a, b))0 = Lq (a, b) .
354 Mathématiques pour les systèmes dynamiques
De cette propriété, moins restrictive que celle de convergence forte et donc plus
facile à vérier dans les applications, on retiendra les conséquences :
toute suite faiblement convergente est bornée ;
un espace de Banach B est réexif si et seulement si toute suite bornée de B
contient une sous-suite faiblement convergente [YOS 66] ;
B1 étant un Banach séparable et B2 un Banach réexif, si {Tn } ⊂ B (B1 , B2 )
est une suite d'opérateurs uniformément bornés, alors il existe T ∈ B (B1 , B2 )
et une sous-suite α (n) ⊂ N tels que :
lim f Tα(n) x = f (T x) , ∀x ∈ B1 , ∀f ∈ B20 . (10.6)
n→∞
donc : Z b
T ∗ y (.) = θ(z, .)y (z) dz. (10.7)
a
Théorème 11. Si T est compact, alors son adjoint est aussi un opérateur compact.
La possibilité d'identier un Hilbert à son dual induit un isomorphisme entre
l'adjoint T ∗ et le dual T 0 d'un opérateur T . Plus précisément, si :
T 0 : H20 → H10 avec T 0 x02 (x1 ) = x02 (T x1 ) ,
T ∗ : H2 → H1 avec hx1 , T ∗ x2 iH1 = hT x1 , x2 iH2 ,
alors, d'après le théorème de Riesz, il existe deux opérateurs bijectifs bornés (linéaires
uniquement dans le cas d'espaces de Hilbert dénis sur R) :
J1 : H1 → H10 tel que x01 (x) = x, J1 x01 ,
et J2 : H2 → H20 tel que x02 (x) = x, J2 x02 ,
donc :
T ∗ = J1 T 0 J2−1 . (10.8)
Cet isomorphisme entre T 0 et T ∗ a pour conséquence :
Im (T )⊥ = ker (T ∗ ) ,
⊥
Im (T ) = ker (T ∗ ) ,
⊥
Im (T ∗ ) = ker (T ) ,
Im (T ∗ ) = ker (T )⊥ .
Z Z Z Z
1 z 1 1
T −1 x1 , x2 = x1 (ς)dςx2 (z)dz = x1 (ς)x2 (z)dzdς, 2
0 0 0 ς
Z Z D
1 1 ∗ E
= x1 (ς) x2 (z)dzdς = x1 , T −1 x2 ,
0 ς
−1 ∗
R1
avec T x2 (ς) = ς x2 (z)dz. On en déduit (propriété 3 du théorème 1) que
l'adjoint de l'opérateur T = dz
d
de domaine D (T ) est déni par :
T ∗ x = − dx
dz
,
D (T ) = {x ∈ H, x absolument continue, x (1) = 0 et dx
∗
∈ H}.
Exemple 7. H étant l'espace de Hilbert L2 (0, 1), les propriétés ci-dessus permettent
dz
d2
également de montrer que l'opérateur T = dz 2 de domaine :
x ∈ H, x et dx absolument continues,
D (T ) = dz
2 ,
avec dx
dz
(0) = dx
dz
(1) = 0 et ddzx2 ∈ H
est son propre adjoint.
Systèmes à paramètres distribués 357
7. Soit Tn une suite d'opérateurs sur H, bornés, auto-adjoints, non négatifs, tels
que : Tn+1 ≥ Tn et ∃α ∈ R+∗ , αI ≥ Tn . Alors, {Tn } converge fortement vers
un opérateur T auto-adjoint non négatif et αI ≥ T ≥ Tn pour tout n [KRE 78].
8. Un opérateur T auto-adjoint non négatif possède une racine carrée non négative
unique T 1/2 telle que :
D T 1/2 ⊃ D (T ) ,
T 1/2 x ∈ D(T 1/2 ), ∀x ∈ D (T ) ,
T 1/2 T 1/2 x = T x, ∀x ∈ D (T ) .
Dans toute cette partie, T est un opérateur fermé sur un Banach B, de domaine
de dénition D (T ) , x, y ∈ B et λ ∈ C. Le problème consiste à déterminer sous quelles
conditions l'équation :
(λI − T ) x = y,
possède une solution x pour tout y de B. Lorsque B est de dimension nie, il sut
que λ ne soit pas valeur propre de T ; il s'agit de généraliser ce concept de valeur
propre au cas des opérateurs de dimension innie.
Dénition 17 (Opérateur résolvant, équation résolvante). Si λI − T est in-
versible et d'inverse borné sur un domaine dense de B , on appelle opérateur ré-
solvant (ou résolvante) de T l'opérateur (λI − T )−1 . C'est un opérateur fermé et
borné de domaine fermé et dense ; donc, d'après le théorème 7 du graphe fermé,
(λI − T )−1 ∈ B (B). L' ensemble résolvant ρ (T ) de T est l'ensemble des valeurs de
λ ∈ C telles que (λI − T )−1 ∈ B (B) . On peut montrer que ρ (T ) est un ouvert
de C. Une propriété importante de l'opérateur résolvant est qu'il satisfait l' équation
résolvante, ∀λ, µ ∈ ρ (T ) :
−1
Ceci indique que : (λI − T )−1 = I − (λ − µ)(µI − T )−1 (µI − T )−1 , soit :
X
∞
(λI − T )−1 = (λ − µ)n (µI − T )−n−1 , ∀λ, µ ∈ ρ (T ) . (10.12)
n=0
L'opérateur résolvant (λI − T )−1 est une fonction faiblement holomorphe3 sur
ρ (T ) et sa dérivée est :
d
(λI − T )−1 = −(λI − T )−2 .
dλ
Théorème 14 (Résolvant d'un opérateur borné). Si T ∈ B (B) est tel que
kT k < 1, I − T est inversible et (I − T )−1 ∈ B (B) est déni par :
(I − T )−1 = I + T + T 2 + · · · + T n + · · · , avec :
(I − T )−1
≤ (1 − kT k)−1 .
Corollaire 1. Si T ∈ B (B) et |λ| > kT k , alors λ ∈ ρ (T ) et :
X
∞
(λI − T )−1 = λ−n−1 T n , avec :
(λI − T )−1
≤ (|λ| − kT k)−1 .
n=0
En dimension nie, le spectre d'un opérateur est constitué d'un nombre ni de
points : les valeurs propres. En dimension innie le spectre peut être vide, inni, ou
même couvrir tout le plan complexe.
Dénition 18 (Spectre). Le spectre σ (T ) d'un opérateur fermé T est le complé-
ment dans C de l'ensemble résolvant ρ (T ) de T.
La séparation du spectre distingue trois parties, telles que σ (T ) = σ p (T ) ∪
σ c (T ) ∪ σ r (T ) :
1. Le spectre ponctuel de T est l'ensemble des valeurs propres, soit :
σ p (T ) = {λ ∈ C, (λI − T ) non injectif} . (10.14)
Les concepts de la dimension nie relatifs aux valeurs propres (vecteurs propres, sous-
espaces propres, ordre et multiplicité) se généralisent de façon naturelle en dimension
innie. On a en particulier :
λ0 valeur propre isolée4 est d'ordre ν 0 si, pour tout x ∈ B :
lim (λ − λ0 )ν 0 (λI − T )−1 x
λ→λ0
Si T est un opérateur auto-adjoint déni sur un Hilbert H, son spectre est réel :
σ (T ) ⊂ R. Si, de plus, T ∈ B (H) , alors on a les propriétés suivantes :
Cela signie que tout opérateur normal compact sur un Hilbert induit une base
orthonormée sur cet espace. L'extension de ce résultat au cas d'opérateurs compacts
non nécessairement bornés est donnée dans le théorème suivant.
Théorème 18. [CUR 95] Si T ∈ B (H1 , H2 ) est compact, il admet la décomposition
de Schmidt : ∞ X
T x1 = σi hx1 , ψi i φi , ∀x1 ∈ H1, (10.18)
i=1
362 Mathématiques pour les systèmes dynamiques
2 pour x ∈ D (T ) ,
T x = − ddz x
Z
1
Il vient : T −1 x (z) = g (z, ς) x (ς) dς,
0
(1 − ς) z pour 0 ≤ z ≤ ς ≤ 1,
g (z, ς) =
(1 − z) ς pour 0 ≤ ς ≤ z ≤ 1.
Puisque g (z, ς) = g (ς, z) , T −1 est auto-adjoint d'après (10.7) (voir exemple 5) ; il est
compact car c'est un opérateur intégral (10.3). Donc, on peut calculer ses valeurs et
vecteurs propres. Soit λ ∈ C tel que T −1 x = λx ; alors on peut écrire, pour z ∈ [0, 1] :
Z Z
z 1
T −1 x (z) = (1 − z) ςx (ς) dς + (1 − ς) zx (ς) dς
0 z
Z z Z 1 Z 1
= ςx (ς) dς + zx (ς) dς − zςx (ς) dς = λx (z) .
0 z 0
d2 x
−x(z) = λ , (10.20)
dz 2
et les conditions
aux limites x (0) = 0 et x (1) = 0 permettent d'obtenir les valeurs
propres n21π2 , n ≥ 1 et les vecteurs propres {sin (nπz) , n ≥ 1} . D'après le théo-
rème précédent, T est fermé et sa décomposition spectrale est :
X
∞ D √ E√
(T x)(z) = n2 π 2 x, 2 sin (nπz) 2 sin (nπz) ,
n=1
( )
X
∞ D √ E2
4 4
avec D (T ) = x ∈ L2 (0, 1) , n π x, 2 sin (nπ.) < ∞ .
n=1
On voit aisément qu'une formulation du type (10.21) peut être obtenue en choi-
d2
sissant x (z, t) ∈ L2 (0, 1), A = dz 2 l'opérateur T déni dans l'exemple 7 et B = I. La
fonction x0 (.) ∈ L2 (0, 1) joue le rôle de condition initiale mais les conditions de bord
sont incluses dans la dénition de l'espace fonctionnel L2 (0, 1) de l'état x (z, t) .
Pour une commande et des conditions initiales susamment dérivables, la super-
position des eets de x0 (z) et de u(z, t) conduit à la solution de (10.22) :
Z 1 Z t Z 1
x(z, t) = g(t, z, ς)x0 (ς)dς + g(t − τ , z, ς)u(ς, τ )dςdτ ,
0 0 0
Formulation abstraite
La formulation générale d'un système dynamique linéaire régi par des équations
aux dérivées partielles peut s'écrire sous la forme :
∂x(z,t)
= A(t)x(z, t) + B(t)uΩ (z, t),
∂t
conditions initiales : x(z, 0) = x (z), z ∈ Ω,
0
(10.24)
conditions aux limites : Q(t, uΓ
)x(ξ, t) = 0, (ξ, t) ∈ Γ × ]0, tf [ ,
observation : y(z, t) = C(t)x(z, t).
Dans cette formulation, l'état x(z, t) est un vecteur de fonctions xi (z, t) à valeurs
réelles dénies sur un ouvert Ω de Rn de frontière Γ. z = (z1 , · · · , zn ) ∈ Ω est le
vecteur de coordonnées spatiales et t ∈ ]0, tf [ la variable temps.
A est un opérateur linéaire matriciel aux dérivées partielles spatiales uniquement,
B un opérateur linéaire matriciel. La commande interne uΩ (z, t) est constituée d'un
ensemble de fonctions d'entrée dénies sur tout Ω (commande interne distribuée) ou
des parties de Ω (commande interne localisée ou bien ponctuelle). Q est un opérateur
matriciel linéaire diérentiel sur Γ×]0, tf [ , fonction de la commande frontière uΓ (ξ, t).
Systèmes à paramètres distribués 365
C est un opérateur matriciel linéaire diérentiel sur Ω dans le cas d'une observation
interne, sur Γ dans le cas d'une observation frontière.
Lorsque A, Q, C sont indépendants du temps, le système est stationnaire.
La plupart des problèmes linéaires d'évolution [LIO 68] conduisent naturellement
à ce type de modélisation (10.24), où l'équation aux dérivées partielles est résolue
en ∂t
∂
. Dans le cas de dérivées partielles par rapport à t d'ordre supérieur à 1, on
se ramène à la formulation (10.24) en utilisant un espace fonctionnel produit. Par
exemple, le problème d'ordre 2 en t déni par :
∂ 2 x(z,t)
∂t2
= A(t)x(z, t) + B(t)uΩ (z, t),
x(z, 0) = x0 (z), z ∈ Ω,
∂x(z,0)
∂t
= x1 (z), z ∈ Ω,
Par exemple :
U = H dans le cas d'une commande distribuée agissant sur tout ou partie de
Ω (respectivement, Y = H pour une observation répartie sur tout Ω) ;
U = Rp dans le cas d'une commande ponctuelle par p actionneurs sur Ω ou plus
fréquemment sur Γ (respectivement, Y = Rq pour une observation ponctuelle
par q capteurs) ;
U = L2 (Γ) (respectivement, Y = L2 (Γ)) dans le cas d'une commande (respec-
tivement, observation) localisée sur la frontière Γ.
366 Mathématiques pour les systèmes dynamiques
Le problème ainsi déni admet une solution x(z, t) dite solution faible, la condition
x ∈ L2 (0, tf , X) assurant les conditions de bord et une régularité susante pour que
l'opérateur A puisse agir (au sens des distributions). Une plus grande régularité de la
solution peut être obtenue en imposant x0 ∈ D(A), ce qui induit x ∈ D(A), c'est-à-
dire que x vérie les conditions de bord en étant susamment diérentiable au sens
classique des fonctions : la solution ainsi dénie est une solution forte.
Remarque 8. Les commandes (respectivement, les observations) internes et répar-
ties ou localisées conduisent à des opérateurs B (respectivement, C ) bornés. Le cas
où la commande (respectivement, l'observation) est ponctuelle ou frontière, donne
nécessairement lieu à des opérateurs B (respectivement, C ) non bornés.
Remarque 9. Si l'opérateur A est coercif, on montre que la solution dépend conti-
nûment des données, c'est-à-dire qu'il y a existence et unicité de la solution x ∈
L2 (0, tf , X), telle que dx
dt
∈ L2 (0, tf , X 0 ) : le problème est bien posé au sens de Hada-
mard [HAD 32].
Ces notions seront détaillées dans le cas stationnaire dans la partie 10.4.2.
Le concept de semi-groupe fortement continu est étroitement lié à celui d'un sys-
tème dynamique sans entrée. En eet, si le système est linéaire à coecients constants
et autonome, son état x(t) peut être relié à l'état initial x0 = x(0, z), quelque soit t,
par :
x(t) = T (t)x, (10.26)
où T (t) est un opérateur linéaire, paramétré en t, de H dans H et tel que T (0) = I
(l'identité dans H).
Si de plus le problème est bien posé au sens de Hadamard, l'état du système est
unique et varie continûment en fonction de l'état initial x0 . De l'unicité, on déduit
que, quelque soit l'état initial x0 :
Un semi-groupe fortement continu T (t) sur un Hilbert H possède les propriétés élé-
mentaires suivantes :
kT (t)k est borné sur tout sous-intervalle ni de [0, +∞[ ;
T (t) est fortement continu pour tout t ∈ [0, +∞[ ;
Rt
∀x ∈ H, 1
t
T (τ)xdτ → x quand t → 0+ ;
0
si ω 0 = inf ( 1t log kT (t)k), alors ω0 = lim ( 1t log kT (t)k) < ∞ ;
t>0 t→+∞
∀ω > ω 0 , il existe une constante Mω telle que ∀t ≥ 0, kT (t)k ≤ Mω eωt .
Cette dernière propriété montre que T (t) est exponentiellement borné, la constante
ω 0 étant parfois appelée la borne de croissance du semi-groupe.
Exemple 11. Reprenons le système modélisé par (10.22). L'opérateur T (t) déni en
(10.26) s'écrit, compte tenu de l'expression (10.23) :
X
∞
T (t) = eλn t hz, φn i φn , (10.28)
n=0
√
avec λn = −n2 π2 pour n ≥ 1 et λ0 = 0, φn (z) = 1, 2 cos(nπz), n ≥ 1 . La base
φn (z) est orthonormée et les valeurs propres λn vérient :
λ ∈ ρ(A) ; R∞
∀x ∈ H, (λI − A)−1 x = 0 e−λt T (t)xdt ;
(λI − A)−1
≤ M , σ = Re(λ) ;
λ−ω
lim α (I − A)−1 x = x.
∀x ∈ H, α→∞
α∈R
Zt
T (t)x0 − x0 = T (τ )Ax0 dτ , ∀x0 ∈ D(A) ;
0
Zt Zt
T (τ)xdτ ∈ D(A) et A T (τ )xdτ = T (t)x − x, ∀x ∈ H ;
0 0
T
∞
A est un opérateur fermé et D(An ) est dense dans H ;
n=1
T ∗ (t) est un C0 -semi-groupe de générateur innitésimal A∗ sur H.
Ces propriétés traduisent l'existence d'une solution x(t) = T (t)x0 au système
dynamique (10.25), stationnaire (A(t) = A), autonome (uΩ = 0), qui constitue un
problème de Cauchy homogène ; la dernière propriété assure l'équivalence de l'exis-
tence d'une solution au problème dual.
La dénition (10.30) ci-dessus est cependant rarement utilisée pour calculer le
générateur innitésimal d'un semi-groupe, parce qu'elle est souvent dicile à appli-
quer. On lui préfère l'utilisation du théorème suivant, qui constitue un résultat très
important sur la caractérisation des générateurs innitésimaux.
Théorème 22 (de Hille-Yosida). Une condition nécessaire et susante pour qu'un
opérateur linéaire A fermé et de domaine dense sur un espace de Hilbert H soit le
générateur innitésimal d'un C0 -semi-groupe est qu'il existe des réels M et ω tels que :
M
∀α > ω, tel que α ∈ ρ (A) ,
(αI − A)−r
≤ , ∀r ≥ 1,
(α − ω)r
Le théorème de Hille-Yosida permet de montrer ce résultat, sachant que supn≥1 (λn ) <
∞. On peut vérier ensuite que cet opérateur A s'identie à l'opérateur diérentiel
déni dans l'exemple 7.
Le théorème de Hille-Yosida donne une condition nécessaire et susante pour
qu'un opérateur soit le générateur innitésimal d'un C0 -semi-groupe. Le théorème
suivant fournit des conditions susantes mais plus simples à vérier.
Théorème 23. Pour qu'un opérateur A fermé, de domaine dense sur un espace de
Hilbert, soit le générateur innitésimal d'un C0 -semi-groupe vériant kT (t)k ≤ eωt , il
sut qu'il vérie :
Re (hAx, xi) ≤ ω kxk2 , ∀x ∈ D(A) ;
Re (hA∗ x, xi) ≤ ω kxk2 , ∀x ∈ D(A∗ ).
Nous envisageons ici une classe d'opérateurs caractérisée par des propriétés spec-
trales qui permettent une représentation particulièrement agréable pour un grand
nombre de systèmes décrits par des équations aux dérivées partielles de type hyper-
bolique ou parabolique.
Dénition 19 (Base de Riesz). Un sous-ensemble non vide {φn , n ≥ 1} d'un
Hilbert H est une base de Riesz pour H s'il est maximal (c'est-à-dire tel que
span {φn } = H ) et si :
D'après la condition (10.31), on vérie que les bases orthonormées sont des bases
de Riesz. Inversement, on peut montrer que toute base de Riesz est l'image, par un
opérateur borné inversible, d'une base orthonormée.
Dénition 20 (Opérateur à spectre de Riesz). Un opérateur à spectre de
Riesz est un opérateur fermé sur un espace de Hilbert H, de valeurs propres simples
{λn , n ≥ 1} dont les vecteurs propres associés constituent une base de Riesz sur H et
telles que {λn , n ≥ 1} soit un sous-ensemble convexe de H.
Autrement dit, deux points quelconques de {λn , n ≥ 1} ne pourront jamais être
joints par un segment entièrement contenu dans {λn , n ≥ 1}. Cette hypothèse d'un
spectre convexe inclut donc les opérateurs dont le spectre possède un nombre ni
de points d'accumulation. Il s'agit là d'une hypothèse technique importante, utile en
particulier pour démontrer les conditions de commandabilité approchée [CUR 95].
Théorème 24. Soit A un opérateur à spectre de Riesz de valeurs propres simples
{λn , n ≥ 1} associées aux vecteurs propres {φn , n ≥ 1} . Soient {ψ n , n ≥ 1} les vec-
teurs propres de A∗ tels que hφn , ψ n i = δnm (dénis en (10.1)). Alors, A vérie les
propriétés suivantes :
370 Mathématiques pour les systèmes dynamiques
ρ(A) = λ ∈ C, inf |λ − λn | > 0 , σ (A) = {λn , n ≥ 1} et :
n≥1
1 X
∞
∀λ ∈ A, (λI − A)−1 = h., ψn i φn ;
n=1
λ − λn
∞
P
pour x ∈ D(A) = x ∈ H, λ2n |hx, ψ i|2 < ∞ :
n
n=1
X
∞
Ax = λn hx, ψ n i φn ;
n=1
X
∞
T (t) = eλn t h., ψn i φn ,
n=1
et sa borne de croissance est : ω0 = inf t>0 1
t
log kT (t)k = sup Re (λn ) .
n≥1
est l'unique solution de (10.32) et elle est continubment diérentiable sur [0, tf ].
Cependant, la condition B(t)uΩ ∈ C 1 ([0, tf ], H) est généralement dicile à obte-
nir. On peut alors utiliser le résultat de solution faible suivant.
Théorème 26. Soient x0 ∈ H et B(t)uΩ ∈ Lp ([0, tf ]; H)p≥1 . Alors, (10.33) est
l'unique solution faible de (10.32) sur [0, tf ]. Elle est continue sur [0, tf ].
Exemple 14. Reprenons le système modélisé par (10.22). La formulation abstraite
d2
dans l'espace d'état L2 (0, 1) s'obtient à l'aide de l'opérateur A = dz 2 de l'exemple 7.
Si la commande est telle qu'il existe p ≥ 1 tel que u(z, t) ∈ Lp ([0, tf ]; L2 (0, 1)), alors
la solution (10.33) s'écrit, compte tenu de la dénition du semi-groupe (exemple 11) :
X
∞ Z tX
∞
x(z, t) = eλn t hx0 , φn i φn (z) + eλn (t−τ ) hu(τ ), φn i φn (z) dτ
n=0 0 n=0
Z 1 X
∞ Z 1 Z t Z 1
= x0 (z)dz + 2eλn t x0 (z) cos(nπz)dz cos(nπζ) + u(z, τ )dzdτ
0 n=1 0 0 0
Z tX
∞ Z 1
2
π 2 (t−τ )
+ e−n 2 u(z, τ ) cos(nπz)dz cos(nπζ)dτ .
0 n=0 0
B(t)uΩ = Rx(t),
Lorsque le retour R est un opérateur non stationnaire R(t) tel que, ∀ t ∈ [0, tf ] ,
R(t) ∈ B(H) et tel que hx1 , R(.)x2 i soit mesurable pour tout x1 de H et pour tout
x2 de H, alors :
ess sup kR(t)kB(H) < ∞, (10.36)
0≤t≤tf
où ess sup est la borne supérieure essentielle (c'est-à-dire au sens de Lebesgue, sans
tenir compte des valeurs isolées).
Le théorème 27 se généralise comme suit.
Théorème 28. Si A est le générateur innitésimal d'un semi-groupe fortement
continu T (t) sur un Hilbert H et si R(t) vérie (10.36), alors A + R(.) est le gé-
nérateur innitésimal de l'unique semi-groupe fortement continu TR (t, τ ) vériant :
TR (t, τ ) : {(t, τ ) ; 0 ≤
R tτ ≤ t ≤ tf } → B(H),
TR (t, τ )x0 = T (t − τ )x0 + τ TR (t − θ)R(θ)T (θ, τ )x0 dθ.
A1 0
, avec D(A) = D(A1 ) ⊕ D(A2 ) et C ∈ B (H1 , H2 ), alors A est le géné-
C A2
rateur innitésimal du C0 -semi-groupe T (t) déni sur H = H1 ⊕ H2 par :
T1 (t) 0
T (t) = ,
K(t) T2 (t)
Rt
où K(t)x1 = 0 T2 (t − τ )CT1 (t)x1 dτ .
et la condition initiale :
x(z, 0) = x0 (z), (10.39)
où M et L représentent des opérateurs matriciels diérentiels sur le vecteur d'état x.
Une solution du système (10.37)-(10.39) peut être obtenue s'il est possible de déter-
miner analytiquement les valeurs et fonctions propres de l'opérateur M . Ce problème
aux valeurs propres associées consiste à résoudre le système :
M [Φ(z)] = λT Φ(z),
(10.40)
L[Φ(z 0 )] = 0.
S'il existe une solution non nulle de (10.40), alors λ et Φ(z) sont respectivement
les valeurs propres et les fonctions propres. Dans le cas où il existe un ensemble
dénombrable de solutions λi , Φi (z) et où les Φi (z) forment une base, la solution de
(10.37) peut s'écrire sous la forme séparable :
X
∞
x(z, t) = ai (t)Φi (z), (10.41)
i=1
374 Mathématiques pour les systèmes dynamiques
Dans le cas général d'un problème linéaire non auto-adjoint (où M et son adjoint
M ∗ n'admettent pas le même ensemble de fonctions propres), on utilise la propriété
d'orthogonalité des deux ensembles de fonctions propres Φ et Φ∗ :
Z
Φi (z), Φ∗j (z) Ω = Φi (z)Φ∗j (z)dz = δ ij , (10.43)
Ω
∂x(z, t)
= M [x(z, t)] + H(z)u(z, t). (10.48)
∂t
Soit x0 = x(z, t0 ) l'état initial. Les conditions aux limites (10.38) s'écrivent, dans
le cas où il existe une commande frontière ul (z 0 , t) :
La méthode des résidus pondérés [FIN 72] consiste à déterminer pour l'équation
(10.48) une solution modale approchée de la forme :
X
N
x̃(z, t) = ai (t)fi (z) + ϕ(z, t), (10.50)
i=1
où les fonctions de base fi (z) sont xées a priori. La fonction ϕ(z, t) satisfait les
conditions aux limites (10.49). La précision de l'approximation dépend de l'ordre
de troncature N . En reportant la solution x∗ dans l'équation (10.48), les conditions
(10.49) et la condition initiale, on dénit les résidus suivants :
résidu sur l'équation :
∂ x̃
R(x̃) = − M [x̃] − Hu, (10.51)
∂t
résidu sur les conditions aux limites :
Rl (x̃) = L[x̃] − ul , (10.52)
résidu sur la condition initiale :
R0 (x̃) = x0 − x̃0 . (10.53)
En faisant un choix approprié de x̃ tel que les conditions aux limites soient tou-
jours satisfaites (Rl = 0), la méthode intérieure des résidus pondérés consiste à
minimiser le résidu R(x̃), ce qui revient à projeter ce résidu, déni en (10.51), sur N
fonctions de pondération ω i (z) et à écrire que ces projections sont nulles. En raison
de la nature répartie du résidu sur Ω, ces projections sont dénies par les produits
intérieurs suivants :
Z
hR(x̃), ω i (z)iΩ = R(x̃)ω i (z)dΩ = 0, i = 1, 2, ..., N. (10.54)
Ω
∂R(x̃)
ω i (z) = , i = 1, 2, ..., N, (10.55)
∂ai
376 Mathématiques pour les systèmes dynamiques
∂R(x̃)
= fi (z), i = 1, 2, ..., N.
∂ ȧi
3. La méthode des moments : dans ce cas, les fonctions ω i (z) sont des fonctions
linéairement indépendantes, orthogonales sur Ω :
Z
ω i (z)ω j (z)dΩ = δ ij , (10.57)
Ω
où δ ij est le symbole de Kronecker.
4. La méthode de collocation par sous-domaines (ou méthode des sous-domaines) :
en partitionnant le domaine Ω en N sous-domaines Ωi (i = 1, 2, ..., N ) non
nécessairement disjoints, les fonctions de pondération ωi (z) sont xées comme
suit :
constante sur Ωi ,
ωi =
0 ailleurs,
ce qui rend nulle l'intégrale du résidu sur chacun des sous-domaines :
Z
R(x̃)dΩ = 0, i = 1, 2, ..., N.
Ωi
Il est possible de choisir les fi (z) selon une structure polynomiale ; an d'éviter
l'obtention de systèmes numériquement mal conditionnés, il est préférable que ces
polynômes soient orthogonaux sur Ω [MOL 90, RIC 01] :
Z
fi (z)fj (z)dΩ = ri2 δij . (10.60)
Ω
Une représentation intéressante de la solution approchée est obtenue avec les poly-
nômes d'interpolation de Lagrange dénis par :
PN+2 (z)
fi (z) = 0
, (10.61)
(z − zi )PN+2 (zi )
Y
N+1
0 dPN+2
avec PN+2 = (z − zi ), PN+2 = .
i=0
dz
Les zi sont les abscisses des points d'interpolation ; z0 et zN+1 sont les limites de
Ω. Si les points de collocation sont confondus avec les points d'interpolation, la mé-
thode est dite de collocation orthogonale [VIL 78]. On peut vérier qu'en chaque point
d'interpolation zj :
fi (zj ) = δ ij , i, j = 0, 1, ..., N + 1. (10.62)
Sachant que la solution approchée est de la forme :
X
N+1
x̃(z, t) = ai (t)fi (z),
i=0
378 Mathématiques pour les systèmes dynamiques
Il a été montré que, pour un nombre N xé de points de collocation, il existe une
solution optimale de l'approximation [VIL 78], à savoir : Les positions optimales
des points de collocation sont
les zéros de polynômes orthogonaux sur Ω.
Les polynômes les plus souvent utilisés sont ceux de Jacobi PN(α,β) [RIC 01], où N
est le degré du polynôme. Ces polynômes vérient la relation d'orthogonalité (10.64),
dans laquelle zL ≡ zN+1 :
Z zL
(α,β)
z k PN (z − zL )α (z − z0 )β dz = 0, k = 0, 1, ..., N − 1. (10.64)
z0
On trouvera dans [MIC 72] une méthode de calcul numérique des zéros du
polynôme de Jacobi. Les paramètres α et β peuvent être considérés comme des
paramètres de réglage en vue d'obtenir la meilleure solution ou, tout au moins, une
solution admissible ; pour cela, il n'existe pas de règles quantitatives précises mais
des études théoriques et expérimentales ont montré qu'il est préférable de placer les
points de collocation dans les zones où les non-linéarités sont les plus inuentes. Le
tableau suivant fournit quelques points de repère.
α β Propriétés
0 0 Distribution uniforme des zéros (polynômes de Legendre)
1 1 Positions symétriques des zéros
1 -0.5 Cas de variables symétriques en espace
petit >1 Davantage de zéros près de z = zL
>1 petit Davantage de zéros près de z = z0
D'autres polynômes peuvent aussi être utilisés, tels ceux de Hahn [STE 83].
D'une façon générale, le problème du choix de N est plus dicile à résoudre que
celui du choix des zi . Il dépend de la structure du modèle (c'est-à-dire non-linéarités,
dynamique, dimensions du domaine Ω) et des capteurs (structure de l'équation de
sortie).
Une corrélation qualitative a été établie [SRI 85] entre le nombre N nécessaire pour
une précision désirée et un paramètre de réduction d'ordre (PRO) obtenu à partir d'un
Systèmes à paramètres distribués 379
10.6. Bibliographie
[AUB 79] Aubin J.P., Applied functional analysis, John Wiley & Sons, 1979.
[BAB 96] Babary J.P., Bourrel S., Nihtila M.T., Dochain D., Sur la re-
présentation d'état des systèmes à paramètres répartis , Les systèmes de
régulation, Masson, p. 317-336, 1996.
[BAL 82] Balas M.J., Towards a more practical control theory for distributed
parameter systems , Control and Dynamic Systems, p. 362-418, Academic
Press, 1982.
[BAN 89] Banks H.T., Kunisch K., Estimation techniques for distributed parame-
ter systems, Birkhäuser, 1989.
[BAN 83] Banks S.P., State space and frequency domain methods in the control of
distributed parameter systems, P. Peregrinus, Londres, 1983.
[BER 90] Berrahmoune L., Stabilisation des structures exibles faiblement amor-
ties , R.A.I.R.O. - A.P.I.I., vol. 24, n◦ 4, 1990.
[BOU 98] Bourrel S., Dochain D., Babary J.P., Queinnec I., Modelling,
identication and control of a denitrifying biolter , Journal of Process
Control, vol. 10, n◦ 1, p. 73-91, 1999.
[CAR 88] Carrier G.F., Pearson C.E., Partial dierential equations. Theory and
technique, deuxième édition, Academic press, U.S.A.
[CAR 87] Carver M.B., Salcudean M., Two-uid modelling of phase redistribu-
tion by obstructions, Mathematics and Computers in Simulation, vol. 29,
p. 399-412, 1987.
[CHO 83] Cho Y.S., Joseph B., Reduced order steady state and dynamic mo-
dels for separation processes. Part I : Development of the model reduction
procedure , AIChE Journal, vol. 29, n◦ 2, p. 261-269, 1983.
[CUR 95] Curtain R.F., Zwart H.J., An introduction to innite-dimensional linear
systems theory, Springer-verlag, 1995.
[DAU 88] Dautray R., Lions J.L., Analyse mathématique et calcul numérique, t.
6, Masson, 1988.
[FIN 72] Finlayson B.A., The method of weighted residuals and variational prin-
ciples, Academic Press, 1972.
[HAD 32] Hadamard J., Le problème de Cauchy et les équations aux dérivées par-
tielles linéaires hyperboliques, Hermann et Cie, Paris, 1932.
[HIL 57] Hille E., Phillips R.S., Functional analysis and semigroups, Amer.
Math. Soc. Coll. Publ., N◦ 31, Providence, R.I., 1957.
[KAT 66] Kato T., Perturbation theory of linear operators, Springer Verlag, 1966.
[KRE 78] Kreyszig E., Introductory functional analysis with applications, John Wi-
ley & Sons, 1978.
380 Mathématiques pour les systèmes dynamiques
[LIO 68] Lions J.L., Contrôle optimal de systèmes gouvernés par des équations aux
dérivées partielles, Dunod, Paris, 1968.
[MIC 72] Michelsen M.L., Villadsen J., A convenient computational procedure
for collocation constants , Chemical Engineering Journal, vol. 4, p. 64-68,
1972.
[MOL 90] Molander M., Computer aided modelling of distributed parameter pro-
cesses, Thèse de doctorat, Tech. Report 193, School of Electr. Comput.
Eng., Chalmers Univ. Techn., Goteborg, Suède, 1990.
[REI 91] Reinhard H., Equations aux dérivées partielles. Introduction, Dunod,
1991.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[RUD 73] Rudin W., Functional Analysis, McGraw-Hill Book Company, New York,
1973.
[SRI 85] Srivastava R.K., Joseph B., Reduced order models for separation
columns-V : selection of collocation points , Comput. Chem. Eng., vol.
9, n◦ 6, p. 601-613, 1985.
[STE 83] Stewart W.E., Levien K.L., Morari M., Collocation methods in
distillation , Foundation of Computer Aided Process Design, snowmass
co.(USA), juin 1983.
[VIL 78] Villadsen J.V., Michelsen M.L., Solution of dierential equation mo-
dels by polynomial approximation, Int. Series in the Physical and Chemical
Engineering Sciences, Prentice Hall, 1978.
[YOS 66] Yosida K., Functional Analysis, Springer-Verlag, 1966.
[ZAM 97] Zambettakis I., Bourrel S., Rotella F., Babary J.P., Parametric
identication of a xed bed bioreactor , European Control Conf., ECC'97,
Bruxelles, 1-4 juillet 1997.
,QGH[
$ G¶(XOHU
GH 3LFDUG/LQGHO|I
DEVFLVVH GH FRQYHUJHQFH
GHV SHWLWV PRXYHPHQWV
DEVROXPHQW FRQWLQXH
GHV SHWLWV UHWDUGV
DFWLI ULVTXp
GX SHLJQH GH 'LUDF
DGMRLQW RSpUDWHXU
DUJXPHQW GLIIpUp
DIILQH
DUUrW WHPSV G¶
HQ O¶pWDW
$VFROL$U]HOD
HQ O¶HQWUpH
DWODV
HQ OD FRPPDQGH
DWWUDFWHXU pWUDQJH
DOpDWRLUH YDULDEOH YHFWHXU
DWWUDFWLYLWp
DOJpEULTXH
DXWRDGMRLQW RSpUDWHXU
pOpPHQW
DXWRFRYDULDQFH
FRQWUDLQWH
DXWRQRPH
GpSHQGDQFH OLHQ
DXWRUpJODQW UHWDUG
GLVMRQFWLRQ
DOJqEUH
%
DX[ GLIIpUHQFHV
FRPPXWDWLYH %DQDFK HVSDFH GH
GH /LH %DQDFK6WHLQKDXV WKpRUqPH
GLIIpUHQWLHOOH EDVH
QRQ OLQpDLUH GH 5LHV]
DQQHDX GLIIpUHQWLHO GH WUDQVFHQGDQFH
DQWLV\PpWULH GLIIpUHQWLHOOH
DSSOLFDWLRQ OLQpDLUH FRQWLQXH GXDOH
DSSUR[LPDWLRQ RUWKRQRUPpH
DX SUHPLHU RUGUH
0DWKpPDWLTXHV SRXU OHV V\VWqPHV G\QDPLTXHV
IUDFWDOH
pFKDQWLOORQQDJH
LQILQLH
pFKHORQ XQLWp
'LQL GpULYDWLRQ GH
('$
'LUDF
(')
GLVWULEXWLRQ GH
('2
LPSXOVLRQ GH
('3
SHLJQH GH
('5('1(')$
GLUHFWLRQQHOOH GpULYpH
('6
GLVFUHW GLVFUqWH
OLQpDLUH
RSpUDWHXU
pJDOLWp SUHVTXH VUH
WHPSV
pOpPHQW DOJpEULTXHWUDQVFHQGDQW
YDULDEOH DOpDWRLUH
GLIIpUHQWLHOOHPHQW
GLVVLSDWLYLWp
HOOLSWLTXH DX[ OLPLWHV
GLVWDQFH
HQGRJqQHH[RJqQH
GH +DXVGRUII
HQVHPEOH
GH :KLWQH\ DX VHQV &
DWWUDFWLI
GLVWULEXWLRQ
ERUQp GHQVH IHUPp RXYHUW
GH FKDPSV GH YHFWHXUV
LQYDULDQW
GH 'LUDF
IDLEOHPHQWIRUWHPHQW
LQWpJUDEOH
OLPLWH
QRQ VLQJXOLqUH
QpJOLJHDEOH
WHPSpUpH
QRQHUUDQW
GRPDLQH
SURJUHVVLI
G¶XQH FDUWH ORFDOH
UpVROYDQW
G¶XQH PXOWLIRQFWLRQ
YLDEOH
GH FRQYHUJHQFH /DSODFH
HQWUpH
GH GpILQLWLRQ
GpSHQGDQWH
GH VWDELOLWp
LQGpSHQGDQWH
HVWLPDWLRQ G¶XQ
HVSpUDQFH
'RRE WKpRUqPH GH
FRQGLWLRQQHOOH
GXDO GXDOH
G¶XQH YD pWDJpH SRVLWLYH
HVSDFH
G¶XQH YD SRVLWLYH
RSpUDWHXU
HVSDFH
'XKDPHO LQWpJUDOH GH
FDQRQLTXH
'XQIRUG GpFRPSRVLWLRQ GH
FRWDQJHQW
G\QDPLTXH
G¶pWDW
FODVVLTXHJpQpUDOLVpH
G¶pWDW pWHQGX
,QGH[
IUDFWLRQQDLUH +|OGHU
GpULYDWLRQ LQpJDOLWp GH
LQWpJUDWLRQ QRUPH GH
)UREHQLXV WKpRUqPH GH KRORPRUSKH IDLEOHPHQW
)XELQL IRUPXOH GH KRPRFOLQLTXH KpWpURFOLQLTXH
)9/ +RSI ELIXUFDWLRQ GH
+XUZLW] PDWULFH GH
* + K\EULGH V\VWqPH
RSpUDWHXU
/D 6DOOH SULQFLSH G¶LQYDULDQFH GH
SUHPLqUH
VWRFKDVWLTXH
/DJUDQJH
LQWHUVHFWLRQ GH PXOWLIRQFWLRQV
pTXDWLRQ GH
LQWHUYDOOH
SRO\Q{PHV GH
GH FRQILDQFH
ODJUDQJLHQ
LQLWLDO
/DQJHYLQ
LQYDULDQFH
pTXDWLRQ GH
G¶XQ IHXLOOHWDJH
WKpRUqPH GH
G¶XQ VRXVHVSDFH
/DSODFH WUDQVIRUPDWLRQ GH
G¶XQH GLVWULEXWLRQ
ODWHQWH YDULDEOH
SULQFLSH G¶
/HEHVJXH PHVXUH GH
LQYHUVH
OHPPH
j JDXFKHj GURLWH
pOpPHQWDLUH G¶XQLFLWp
G¶XQH PXOWLIRQFWLRQ
GH )DWRX
LPDJH
GH *URQZDOO
RSpUDWHXU
GH .URQHFNHU
WUDQVIRUPpH GH )RXULHU
/LpQDUG pTXDWLRQ GH
LQYROXWLYLWp G¶XQH GLVWULEXWLRQ
/LDSRXQRY
LUUpGXFWLEOH IDFWRULVDWLRQ UH PpWKRGH
LVRFKURQH WUDQVPLWWDQFH
H PpWKRGH
,W{
pTXDWLRQ GH
IRUPXOH G¶
GLPHQVLRQ GH
IRUPXOH GLIIpUHQWLHOOH G¶
H[SRVDQW GH
SURFHVVXV G¶
IRQFWLRQ GH
PpWKRGH GLUHFWH GH
- .
WKpRUqPH GH
-DFREL /LH
LGHQWLWp GH DOJqEUH GH
SRO\Q{PH GH FURFKHW GH
,QGH[
QR\DX
V\VWqPH
G¶XQH PXOWLIRQFWLRQ
3DOH\:LHQHU WKpRUqPH GH
GH 3RLVVRQ
3DUN PRGqOH WUDQVIRUPDWLRQ GH
VpSDUDEOH
3DUVHYDO pJDOLWp UHODWLRQ GH
SDUWLH
2
ERUpOLHQQH
REVHUYDELOLWp SRVLWLYH QpJDWLYH
RSpUDWHXU SDUWLHO FRUSV GLIIpUHQWLHO
DGMRLQW SDV j SDV
DXWRDGMRLQW V\PpWULTXH PpWKRGH
ERUQp PRWHXU
G¶DYDQFH 3HDQR WKpRUqPH GH
G¶LQWpJUDWLRQ SHLJQH GH 'LUDF
GH &DXFK\5LHPDQQ 3HL[RWR WKpRUqPH GH
GH GpULYDWLRQ S SHQGXOH SHVDQW
GH GLODWDWLRQ SpULRGLTXH
GH UpIOH[LRQ FKDPS GH YHFWHXUV
GH UHWDUG IRQFWLRQ
GH WUDQVODWLRQ RUELWH
GHV RQGHV SHUWXUEDWLRQ
GLIIpUHQWLHO HOOLSWLTXH UpJXOLqUH
GXDO UHMHW GH
IHUPp VLQJXOLqUH
LQWpJUDO PRGqOH VWDQGDUG
LQYHUVLEOH 3LFDUG/LQGHO|I DSSUR[LPDWLRQV GH
ODSODFLHQ 3ODQFKHUHO pJDOLWp GH
OLQpDLUH SODQLILFDWLRQ GH WUDMHFWRLUH
RUELWH SODWLWXGH
IHUPpH 3RLQFDUp VHFWLRQ GH
KRPRFOLQLTXH SRLQW
SpULRGLTXH G¶pTXLOLEUH
RUGLQDLUH IL[H WKpRUqPH GX
FRUSV GLIIpUHQWLHO QRQHUUDQW
RUGUH 3RLVVRQ
G¶XQ RSpUDWHXU IRUPXOH GH
QRQ HQWLHU QR\DX GH
2UQVWHLQ8KOHQEHFN SRORQDLV HVSDFH
RUWKRJRQDOLWp SRUWUDLW GH SKDVH
RUWKRQRUPp SRVLWLYH
RXYHUW GpILQLH
SDUWLH
,QGH[
VWUXFWXUHOOH 7
GH 3pDQR 8 9
GH 3DOH\:LHQHU
XQLIRUPH
GH 3HL[RWR
FRQWLQXLWp FRQYHUJHQFH
GH UpJXODULWp HOOLSWLTXH
VWDELOLWp
GH 5LHV]
XQLRQ GH PXOWLIRQFWLRQV
GH 5LWW5DXGHQEXVFK
9DQ 'HU 3RO pTXDWLRQ
GH 7LNKRQRY
YDULDEOH
GH 7LWFKPDUVK
DOpDWRLUH YD
GH =XERY
GLVFUqWH
GHV JUDQGV QRPEUHV
pWDJpH
GHV SHUWXUEDWLRQV UpJXOLqUHV
LLG
GHV SHUWXUEDWLRQV VLQJXOLqUHV
LQWpJUDEOH
GX JUDSKH IHUPp
UpHOOHSRVLWLYHYHFWRULHOOH
GX SRLQW IL[H
WHPSRUHOOH
UpFLSURTXH
YDULDQFH
7LNKRQRY WKpRUqPH GH
G¶XQH YD JDXVVLHQQH
7LWFKPDUVK WKpRUqPH GH
YDULDWLRQ
WRXU G¶H[WHQVLRQV
ILQLHSDUDPpWULTXHWRWDOH
WUDMHFWRLUH
TXDGUDWLTXH
G¶XQ SURFHVVXV DOpDWRLUH
YDULpWp
WUDQVFHQGDQW pOpPHQW
GLIIpUHQWLDEOH
WUDQVFULWLTXH ELIXUFDWLRQ
GLIIpUHQWLHOOH
WUDQVIRUPDWLRQ
ORFDOH VWDEOH LQVWDEOH
GH )RXULHU
9DVLFHN PRGqOH GH
DOpDWRLUH
VXU O YHFWHXU
DOpDWRLUH
GH /DSODFH
G¶pWDW GH SKDVH
G¶XQ VHPLJURXSH
JDXVVLHQ
XQLODWqUHELODWqUH
WDQJHQW
GH 3DUN
YHUVLRQ
WUDQVODWLRQ
YLDEOH HQVHPEOH
WUDQVSRVLWLRQ
YRODWLOLWp
WULEX
9ROWHUUD
ERUpOLHQQH
pTXDWLRQ LQWpJUDOH GH
FRPSOqWH
VpULH GH
GHV pYpQHPHQWV DQWpULHXUV
9ROWHUUD/RWND V\VWqPH GH
GLVFUqWH JURVVLqUH
HQJHQGUpH
: =
SURGXLW
:KLWQH\ GLVWDQFH GH
=XERY WKpRUqPH GH