Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
MEMOIRE DE MASTER
Présenté à
SUR LE SUJET :
Devant le Jury :
UFRMI
A l’Eternel, le Dieu tout puissant, créateur des cieux et de la terre,
la gloire, l’honneur et la magnificence pour des siècles et des siècles. Amen !
Avant tout propos relatif à ce mémoire, je voudrais commencer par des remerciements à
l’endroit de ceux qui ont contribués à son élaboration.
A cet effet,
– Je remercie mon directeur de mémoire, Monsieur KOUA Brou Jean Claude pour m’avoir
accepté en tant qu’un fils à ses cotés. Merci cher maître pour votre gentillesse et pour vos
conseils.
– Je remercie tout particulièrement Monsieur DOSSO Mouhamadou. J’exprime envers vous
cher maître ma gratitude pour votre aide précieuse, vos idées et vos conseils, mais surtout
pour votre disponibilité sans cesse renouvelée à mon égard et pour l’accueil chaleureux
dont vous m’avez fait preuve. Merci maître pour vos remarques et suggestions.
– Je remercie Monsieur COULIBALY Adama pour ses encouragements et pour avoir accepté
de présider le jury. Au travers de vous cher maitre, je tiens à remercier tous les professeurs
de l’équipe d’EDP, Analyse Numérique et optimisation ainsi que le Directeur de l’UFR
Mathématiques et Informatique.
– Je remercie Monsieur COULIBALY Namory pour avoir accepté d’examiner ce travail.
Merci cher maitre pour vos suggestions et conseils avisés.
– Je remercie la communauté évangélique UEESO-CI d’Abobo Anonkoua 3 pour le soutien
spirituel et moral à mon endroit.
– Je remercie mes parents, amis, frères et sœurs pour tout le soutien moral et financier dont
j’ai bénéficié tout au long de mon parcours scolaire et universitaire.
– Je remercie tous mes condisciples avec qui j’ai été de près comme de loin dans ce mémoire,
de qui je me suis amélioré et enrichi en savoirs mathématiques et informatique.
– Je n’oublierai pas de dire merci à DIBY Amenan Edith, pour sa grande patience envers
moi et pour m’avoir donné un si beau garçon.
L’objectif de ce mémoire est d’étudier l’application des résultats relatifs aux études sur la
stabilité et la stabilité forte des matrices symplectiques, aux différentes théories de la résonance
paramétrique et du contrôle optimal. Des méthodes numériques pour analyser la stabilité des
matrices symplectiques obtenues respectivement dans [7] et [5] sont présentées puis appliquées
aux systèmes Hamiltoniens à coefficients périodiques. Les systèmes dynamiques à résonance
sont par la suite étudiés. Nous présentons une méthode numérique pour calculer la matrice
monodromie (matrice fondamentale évaluée à la période T) du système perturbé, laquelle
détermine la stabilité du système. Concernant la théorie du contrôle optimal, nous avons montré
le lien entre l’expression du contrôle optimal et la solution de l’équation algébrique de Riccati,
elle même liée aux systèmes Hamiltoniens ; suivi de la relation entre l’équation algébrique de
Riccati et une matrice non singulière.
Mots clés : Matrice symplectique, stabilité, stabilité forte, dichotomie spectrale, système
Hamiltonien, résonance paramétrique, matrice monodromie, contrôle optimal, équation
algébrique de Riccati.
Table des matières
Remerciements 2
Introduction 2
i
2.4.2 Analyse du comportement des valeurs propres d’un système Hamiltonien
perturbé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.4.3 Autre analyse du comportement des valeurs propres d’un système Hamil-
tonien perturbé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Conclusion 62
A Annexe 63
A.1 Code source du programme de l’algorithme 4 . . . . . . . . . . . . . . . . . . . . 63
Bibliographie 66
Introduction
W T JW = J
où J est une matrice d’ordre 2N , inversible et antisymétrique définie dans un contexte clair.
Ces matrices font partie d’une classe importante de matrices dites «structurées» et apparaissent
notamment dans la théorie du contrôle optimal [14, Chap. 6], [16, Chap. 15] et dans la théorie
de la résonance paramétrique [7, 24]. En contrôle optimal, les matrices n’ont pas de valeurs
propres sur le cercle unité tandis que dans le domaine de la résonance paramétrique, toutes
les valeurs propres sont sur le cercle unité. Dans ces domaines, les matrices symplectiques sont
obtenues à partir de systèmes différentiels Hamiltoniens à coefficients périodiques
dx(t)
J = H(t)x(t), t∈R
dt
où H(t) ∈ R2N ×2N est symétrique et T -périodique, et dont la solution fondamentale X(t) définie
par la condition initiale X(0) = I est une matrice symplectique (voir [24, Chap.3]).
Ce mémoire est organisé en trois chapitres, décrit de la façon suivante : Dans le chapitre 1,
nous faisons une étude préliminaire sur les matrices symplectiques. Nous présentons des études
sur la stabilité des matrices symplectiques proposées par S.K. Godunov et M. Sadkane (cf. [6]),
mais aussi par M. Dosso et M. Sadkane (cf. [1],[5]). Le chapitre 2 est consacré à l’étude des
systèmes dynamiques à résonance. Nous étudions la perturbation des systèmes Hamiltoniens à
coefficients périodiques sous un petit paramètre ε et analysons le comportement des valeurs
propres de la matrice monodromie. Une méthode numérique pour déterminer cette matrice est
2
TABLE DES MATIÈRES
présentée. Dans le chapitre 3, nous étudions les systèmes dynamiques contrôlables suivant un
critère (coût) donné. Nous montrons que le contrôle optimal u(t) est fonction de la solution de
l’équation algébrique de Riccati, elle même déduite d’un système Hamiltonien, ainsi que le lien
entre une matrice non singulière et l’équation algébrique de Riccati. La section 3.7 est consacrée
à une étude sur la perturbation des systèmes contrôlables.
1.1 Introduction
Dans ce chapitre nous rassemblons les définitions et quelques propriétés spectrales des
matrices symplectiques utiles à la compréhension de ce mémoire, puis nous étudions par la suite
leur stabilité (cf. [6],[7],[24]). Dans les sous-sections 1.4 et 1.5, nous présentons une analyse de
la stabilité forte des matrices symplectiques utilisant respectivement la technique de dichotomie
spectrale (cf. [1],[6],[8]) et des calculs spectraux sur des matrices symétriques définies positives
(cf. [5],[13]). La section 1.6 est consacrée à une application aux systèmes Hamiltoniens.
Soient W, J ∈ R2N ×2N deux matrices réelles d’ordre 2N avec J inversible et anti-symétrique.
Définition 1.1. On dit que W est J-symplectique (ou J-orthogonale) si W T JW = J.
Lorsque la matrice J est définie dans un contexte clair, on dira tout simplement que W est
symplectique.
0 −IN
Un exemple standard de matrice J est J = où IN est la matrice identité
IN 0
d’ordre N .
4
1.2. PROPRIÉTÉS SPECTRALES DES MATRICES SYMPLECTIQUES
Démonstration. .
1. Soit p(λ) le polynôme caractéristique (à coefficients réels) de W avec λ 6= 0 et det(W ) = 1.
On a :
y ∗ Jx = (Jx, y)
= (W T JW x, y)
= (JW x, W y)
= (Jλx, µy)
y ∗ Jx = λµ̄(Jx, y)
(Jx, x) = 0 = (Jy, y)
Exemple 1.1. .
0 −IN
1. Soit J =
IN 0
X 0
• Si X ∈ RN ×N est inversible alors la matrice est J-symplectique.
0 X −T
IN Y
• Si Y ∈ RN ×N est symétrique alors la matrice est J-symplectique.
0 IN
N ×N
• Si
X, Y ∈R satisfaisant XY T = Y X T et X est inversible, alors la matrice
X Y
est J-symplectique.
0 X −T
2. Si W ∈ R2N ×2N est J-symplectique alors W T , W −T , W −1 sont symplectiques.
3. Le produit de deux matrices symplectiques est symplectique. Plus généralement le produit
de matrices symplectiques est symplectique.
Nous avons les définitions suivantes concernant la stabilité et la stabilité forte d’une matrice
J-symplectique.
– toutes ses valeurs propres sont sur le cercle unité et sont simples.
La stabilité forte d’une matrice J-symplectique a été définie dans le livre de V.A Yakubovich
et V.M Starzhinskii (cf. [24]) à partir d’une classification des valeurs propres de module 1. D’où
la définition suivante :
Définition 1.3. Soit λ une valeur propre de module 1 de W . On dit que λ est de type 1 (resp.
de type 2) si tout vecteur propre x associé à λ vérifie (iJx, x) > 0 (resp. (iJx, x) < 0)). Si
(Jx, x) = 0, on dira que λ est de type mêlé.
Remarque 1.1. La définition ci-dessus a bien un sens puisque la matrice iJ est complexe
Hermitienne.
A partir de cette classification nous avons le théorème suivant dû à Krein, Gelfand et Lidskii
appelé critère KGL qui caractérise la stabilité forte d’une matrice symplectique.
Théorème 1.1 (Critère KGL). La matrice W est fortement stable si et seulement si toutes ses
valeurs propres sont sur le cercle unité et sont soit de type 1 ou de type 2.
n’est pas dans un voisinage proche de zéro, où eiθj , eiθl sont des valeurs propres de W de type 1
et 2 respectivement.
Proposition 1.1. .
1. La matrice S0 est symétrique et satisfait W T S0 W = S0 .
2. Si S0 est définie positive (S0 > 0) ou définie négative (S0 < 0), alors les valeurs propres
de W sont sur le cercle unité.
Démonstration. .
1. W étant J-symplectique et inversible d’inverse W −1 = −JW T J on a :
JW −1 = −J 2 W T J = W T J = −(JW )T
Ainsi
1 1 1
S0 = J(W − W −1 ) = (JW − JW −1 ) = (JW + (JW )T ) = S0T
2 2 2
et
1
W T S0 W = W T (JW − JW −1 )W
2
1
= (W T JW − W T JW −1 )W
2
1
= (JW − W T J)
2
1
= (JW + (JW )T )
2
T
W S0 W = S0
2. Supposons S0 définie positive. Soit x un vecteur propre associé à la valeur propre λ de W .
Remarquons que la matrice S0 est singulière si et seulement si W possède des valeurs propres
±1. De plus si x est un vecteur propre associé à la valeur propre λ avec λ = eiθ , 0 < θ < π alors
1
(S0 x, x) = [(JW x, x) − (JW −1 x, x)]
2
1
= [(Jλx, x) − (Jλ−1 x, x)]
2 (1.3)
λ − λ−1
= (iJx, x)
2i
(S0 x, x) = sin θ(iJx, x)
Le signe de (S0 x, x) dépend uniquement du signe de (iJx, x) puisque sin θ > 0. Ainsi, si
(S0 x, x) > 0 alors λ = eiθ est une valeur propre de type 1 et λ̄ = e−iθ est une valeur propre de
type 2 et si (S0 x, x) < 0 alors λ = e−iθ est de type 1 et λ̄ = eiθ est de type 2.
Notons que si θ = 0 ou θ = π alors λ = ±1 et de telles valeurs propres sont de type mêlé car le
vecteur propre correspondant x est réel et satisfait (Jx, x) = (x, J T x) = −(x, Jx) = −(Jx, x).
Donc (Jx, x) = 0 et (S0 x, x) = 0. Le critère KGL est donc équivalent à l’existence d’une matrice
symétrique définie positive Sb qui est construite afin que la forme quadratique (S0 x, x) soit définie
positive ou négative (cf. [12]).
Cette analyse conduit à la définition suivante qui donne une autre classification des valeurs
propres de matrices J-symplectique.
Définition 1.4. Soit λ une valeur propre de W de module 1. Nous disons que λ est une r-valeur
propre (ou une valeur propre de couleur rouge) (resp. v-valeur propre (ou valeur propre de
couleur verte)) si tout vecteur propre x associé à λ vérifie (S0 x, x) > 0 (resp. (S0 x, x) < 0). Si
(S0 x, x) = 0, alors λ est une valeur propre de couleur mêlé.
La classification ainsi obtenue est plus appropriée au calcul numérique car elle utilise
uniquement des matrices symétriques.
La différence principale entre les définitions 1.3 et 1.4 peut être expliquée par l’exemple suivant.
Supposons que λ = eiθ et λ̄ = e−iθ sont des valeurs propres de W respectivement de type 1 et 2
associés aux vecteurs propres x et x̄ où x̄ est le conjugué de x. Alors tout vecteur z de la forme
z = αx + β x̄ avec W x = λx et W x̄ = λ̄x̄ vérifie :
et puisque (iJx, x) > 0 et (iJ x̄, x̄) < 0, on en déduit que la forme quadratique (S0 z, z) conserve
le même signe pour tout z dans le sous-espace invariant associé aux valeurs propres λ et λ̄. Par
conséquent, les valeurs propres λ et λ̄ auront la même couleur (rouge ou verte). D’autre part,
un vecteur propre x est associé à une valeur propre de type mêlé si et seulement si (Jx, x) = 0,
qui, d’après (1.3), s’écrit aussi (S0 x, x) = 0 (remarquons que le cas où sin θ = 0 conduit aux
valeurs propres de type mêlé ±1, et donc (Jx, x) = 0 = (S0 x, x)). La définition 1.4 ne change
pas les valeurs propres de type mêlé.
Partant de cette classification, nous considérons :
– Pr : Projecteur sur le sous-espace invariant associé respectivement aux valeurs propres de
couleur rouge
– Pv : Projecteur sur le sous-espace invariant associé respectivement aux valeurs propres de
couleur verte
Ainsi nous avons le théorème suivant :
Théorème 1.2. W est fortement stable si et seulement si toutes ses valeurs propres sont sur le
cercle unité et sont soit de couleur rouge ou de couleur verte.
Il est important néanmoins de souligner que dans la pratique, en plus des deux conditions
imposées dans le théorème 1.2, il faut que les r-valeurs propres et v-valeurs propres soient bien
séparées. C’est à dire, la quantité
est non nulle, où eiθj , eiθl sont des valeurs propres de W de couleur rouge et verte respectivement.
Ce qui nous conduit au théorème suivant :
Pr + Pv = P1 = I2N (1.6)
Les Algorithmes présentés dans ce chapitre sont essentiellement basés sur le théorème 1.3.
Soit A ∈ CN ×N une matrice n’ayant pas de valeur propre sur le cercle C(0, r) où r est un
réel strictement positif. La méthode de dichotomie spectrale appliquée à A et à C(0, r) calcule
itérativement le projecteur spectral P sur le sous-espace invariant associé aux valeurs propres à
l’intérieur (à l’extérieur) du cercle C(0, r). Le calcul du projecteur est accompagné de celui de la
norme kHk2 d’une matrice Hermitienne définie positive, appelée critère de dichotomie et qui
représente un indicateur de confiance associé au calcul du projecteur car plus elle est petite,
meilleure est la qualité numérique du projecteur.
Supposons maintenant que r = 1. Le projecteur spectral sur le sous espace invariant associé
aux valeurs propres intérieures à C(0, 1) est donné par (voir [[15], p. 39])
1 Z −1 1 Z 2π
P= (zI − A) dz = (I − e−iθ A)−1 dθ (1.7)
2iπ C(0,1) 2π 0
Son calcul comme expliqué ci-dessus est accompagné par la matrice H définie par
1 Z 2π ∗
H= (I − e−iθ A)−1 (I − e−iθ A)−1 dθ (1.8)
2π 0
Considérons la décomposition suivante de la matrice A :
Ã
0 X −1
A=X
̰
Nous présentons maintenant les étapes les plus importantes de l’algorithme de dichotomie
spectrale proposées par S.K Godunov et M. Sadkane (cf. [[6], Algorithm 1]) permettant un
calcul stable et itératif de P et H. Pour ce faire, on considère le système linéaire fini et cyclique
j+1 (2j+1 )
Z (2 )
− AZ1 =I
0
j+1 (2j+1 )
(1.9)
Z (2 )
− AZk+1 = 0 1 ≤ k ≤ 2j+1 − 1
k
Alors
Hj = ∆∗j Hj−1 ∆j + ∇∗j Hj−1 ∇j (1.13)
De plus
(2j+1 ) (2j+1 )
lim Z0 ≡ lim Z2j+1 = P
j→+∞ j→+∞
(2j+1 )
lim Z1 =P−I
j→+∞
lim Hj = H
j→+∞
Les étapes importantes de l’algorithme ainsi obtenues sont résumées ci-dessous (voir [[6],
Algorithm 1]).
(2j+1 ) (2j+1 )
– Calculer Z1 et Z2j+1 solutions du système
(2j+1 )
B Aj Z1
j
0
=
(2j+1 )
A0 B0 Z2j+1 I
(2j+1 ) (2j+1 )
– Calculer Z2j et Z2j +1 solutions du système
(2j+1 ) (2j+1 )
(j−1) (j−1) (j−1) (j−1)
R
11
R12 Z2j R
= − 13
R14 Z1
(2j+1 ) (2j+1 )
(j−1) (j−1) (j−1)
0 R22 Z2j +1 R23 R24 Z2j+1
– Calculer
(2j+1 ) (2j+1 )
∆j = B0 Z2j + A0 Z1
(2j+1 ) (2j+1 )
∇j = B0 Z2j+1 + A0 Z2j +1
Hj = ∆∗j Hj−1 ∆j + ∇∗j Hj−1 ∇j
Le nombre d’opérations élémentaires de l’algorithme 1 a été estimé par M. Dosso dans [1, 2].
Ainsi une itération nécessite de l’ordre de 253/3N 3 opérations environ.
Signalons qu’une variante plus économique de l’algorithme 1 a été proposée par M. Dosso
(2j+1 ) (2j+1 )
(cf. [1]) et qui supprime essentiellement la factorisation QR et le calcul de Z2j et Z2j+1 .
Cette variante se justifie de la façon suivante : la résolution du système (1.9) donne 2j+1 solutions
d’expressions :
−1
(2j+1 ) j+1 −k
j+1
Zk = A2 IN − A2 , k = 0, 1, · · · , 2j+1 − 1. (1.16)
Le calcul analytique de ces expressions n’étant pas stable, il est préférable de les calculer de
manière itérative. Pour cela, posons pour j = 0, 1, · · ·
j
j
j+1
−1
Kj+1 = A2 IN − A2 IN − A2 (1.17)
j+1 −1
j
Lj+1 = IN − A2 IN − A2 (1.18)
(2j+1 ) (2j )
La proposition suivante donne le lien entre Zk et Zk
et par suite
Bj Kj+1 + Aj Lj+1 = 0
(2j ) (2j )
De même, la première ligne de l’équation (1.9) s’écrit, sachant que Z0 = Z2j
(2j ) (2j )
Z2j + Lj+1 − AZ1 Kj+1 = IN
d’où
Bj Kj+1 + Aj Lj+1 = IN
.
(2j+1 ) (2j+1 ) (2j )
Connaissant Kj+1 et Lj+1 , on détermine les matrices Z1 et Z2j+1 à partir de Z1 et
(2j )
Z2j par application de la proposition 1.2, puis Kj+2 et Lj+2 comme solutions du système
matriciel (1.22).
Remarque 1.2. Tous les résultats obtenus s’appliquent au cas où A n’a pas de valeurs propres
sur le cercle C(0, r) de centre 0 et de rayon r. La nouvelle variante de l’algorithme 1 est donnée
ci-dessous (Algorithme 2)
(b) Résoudre
B Aj Kj+1 0
j =
Aj Bj Lj+1 IN
(c) Calculer
(2j+1 ) (2j )
Z1 = Z1 Kj+1 ,
(2j+1 ) (2j )
Z2j+1 = Z2j Lj+1
∗
Hj+1 = Kj+1 Hj Kj+1 + L∗j+1 Hj Lj+1
Initialisation
Calcul de K1 , L1 , H1 26/3N 3
Une itération j
Calcul de Aj 2N 3
Calcul de Kj+1 , Lj+1 31/3N 3
(2j+1 )
Calcul de Z1 2N 3
(2j+1 )
Calcul de Z2j+1 2N 3
Calcul de Hj+1 4N 3
26 3 61
Total 3
N + 3
jN 3
Remarque 1.3. .
1. Le nombre d’opérations de la phase d’initialisation des algorithmes 1 et 2 est le même.
En revanche une itération de l’algorithme 1 coûte plus de quatre fois plus cher qu’une
itération de l’algorithme 2. L’algorithme 2 représente donc un gain non négligeable par
rapport à l’algorithme 1.
2. En général, une dizaine d’itérations suffisent à l’algorithme 2 (et à l’algorithme 1) pour
construire de très bonnes approximations du projecteur P et de la matrice H.
où
1 Z 2π A∗ −1 A −1
H(r) = I − eiθ I − e−iθ dθ.
2π 0 r r
Le projecteur spectral sur le sous espace invariant de A associé aux valeurs propres λ intérieures
au cercle C(0, r) est :
−1
1 Z 1 Z 2π −iθ A
−1
P(r) = (zI − A) dz = I −e dθ
2iπ C(0,r) 2π 0 r
Remarque 1.4. Lorsque A a une valeur propre λ sur le cercle C(0, r), alors f (r) −→ +∞, i.e.
le graphe de f a une asymptote d’équation |λ| = r.
Il est montré dans [10] que la fonction f est convexe dans chaque intervalle où elle est définie.
Ces intervalles correspondent aux régions d’absence de valeurs propres. Le portrait spectral est
un autre regard sur le pseudo-spectre [20] d’une matrice. Il permet la construction de régions
(des bandes) qui partagent le spectre.
où W0 , W1 et W∞ sont des matrices dont les valeurs propres sont respectivement intérieures,
sur, et en dehors du cercle unité.
Nous voulons déterminer les projecteurs P0 , P1 et P∞ associés respectivement aux blocs W0 ,
W1 et W∞ à l’aide de l’algorithme de dichotomie spectral. Pour ce faire, on va dans un premier
temps chercher une constante r0 > 0 tel que toutes les valeurs propres de module inférieur
à 1 soient à l’intérieur du cercle C(0, r0 ) (r0 est déterminé grâce au portrait spectral de W ).
Alors, le projecteur spectral obtenu par l’algorithme de dichotomie spectrale appliqué à W et
au
cercle C(0, r0 ) sera égal à P0 . Comme ∀ λ ∈ Λ(W0 ), on a |λ| < r0 < 1, on aura ∀ λ ∈ Λ(W0 ),
1
λ > r1 > 1. Or les valeurs propres de W∞ sont l’inverse des valeurs propres de W0 . Donc en
0
posant r∞ = r10 > 1 et en considérant le cercle C(0, r∞ ) qui contient Λ(W0 ) ∪ Λ(W1 ), on applique
une deuxième fois l’algorithme de dichotomie spectrale à W et au cercle C(0, r∞ ). Ce qui nous
donne une bonne approximation de I2N − P∞ . Puis sachant que P0 + P1 + P∞ = I2N , on obtient
P1 = I2N − P0 − P∞ .
1
De même λ̄ = et on a :
λ !
λ̄ − 1 θ λ − 1
= tan =
λ̄ + 1 2 λ + 1
λ−1
L’application λ 7−→ conserve l’égalité entre λ et λ̄. Ces deux valeurs propres étant de
λ+1
même couleur, cela nous amène à considérer la transformation Cc de Caley suivante :
A = (W − I)(W + I)−1 = Cc (W )
λ−1
qui transforme la valeur propre λ de W en valeur propre de A.
λ+1
Ainsi on considère l’ensemble des valeurs propres
λk − 1
lk = , ∀ k = 1, 2, · · ·
λk + 1
où λk désigne une valeur propre de W de module 1.
Notons que les vecteurs propres (et les sous-espaces invariants) de A et de W sont les mêmes.
On détermine ensuite des constantes positives a1 , a2 , a3 , · · · vérifiant l’inégalité suivante :
Remarquons que puisque W est réelle, les valeurs propres λk et par conséquent les lk sont
complexes conjuguées et donc m ≤ N + 1. En pratique, on choisit par exemple a1 = 0 et
am+1 > kAk où kAk désigne une norme matricielle quelconque de A. Les autres ak sont obtenues
en examinant le portrait spectral de A.
Notons par Pk , k = 1, · · · , m + 1 les projecteurs sur les sous-espaces invariants associés aux
valeurs propres de A. On détermine les Pk en appliquant l’algorithme de dichotomie spectrale à
A par rapport au cercle C(0, ak ), en remarquant que P1 = 0 et Pm+1 = I.
D’autre part en considérant les matrices
Qk = Pk+1 − Pk , (1.24)
on vérifie si
Sk = QTk S0 Qk ≡ SkT (1.25)
est soit semi définie positive ou négative. W sera, dès lors, fortement stable s’il n’y a pas de
matrices Sk indéfinies.
Le théorème suivant nous permet d’obtenir les projecteurs Pr et Pv
P0 = P∞ = 0 et Pr + Pv = P1 = I2N
avec
X X
Pr = Qk et Pv = Qk
Sk ≥0 Sk ≤0
L’algorithme suivant résume l’analyse de la stabilité forte d’une matrice symplectique par la
méthode de dichotomie spectrale.
A = (W − I)(W + I)−1
puis à partir du portrait spectral de A, déterminer les scalaires (ak )1≤k≤m+1 satisfaisant
0 < ak < |lk | < ak+1 , ∀ k = 1, 2, · · · , m.
3. Déterminer les projecteurs P1 = 0, P2 , · · · , Pm , Pm+1 = I par la dichotomie spectrale
appliquée à A par rapport au cercle C(0, ak ).
4. Pour k = 1, · · · , m, calculer
Qk = Pk+1 − Pk et Sk = QTk S0 Qk
Si Sk est indéfinie, alors il n’y a pas stabilité forte. Si toutes les matrices Sk sont semi-
définies, alors il y a stabilité forte. Dans ce cas
X X
Pr = Qk et Pv = Qk
Sk ≥0 Sk ≤0
2n
1 X
T (n)
= n (W T )k−1 W k−1 (1.26)
2 k=1
Il est claire que T (n) est symétrique définie positive : T (n) = (T (n) )T > 0.
Son calcul s’effectue de matière itérative comme suit :
1 (n−1)
B (n) = (B (n−1) )2 , T (n) = T + (B (n−1) )T T (n−1) B (n−1) (1.28)
2
Si T (n) converge vers une matrice T (∞) alors
W T T (∞) W = T (∞)
En désignant par P− et P+ les projecteurs spectraux sur les sous espaces invariants associés
aux valeurs propres négatives et positives de S0 − λT (n) , alors la stabilité forte de W nous donne
P+ = Pr et P− = Pv . (cf. [13])
Nous résumons cette approche dans l’algorithme ci-dessous.
Considérons l’exemple ci-dessous (cf. [5, Exemple 2]). Dans cet exemple, nous illustrons en
détail des tests numériques de l’analyse de la stabilité forte au moyen de l’algorithme 4.
Exemple 1.2. Soit
cos α(t)B(t) − sin α(t)B(t)−T
W (t) =
sin α(t)B(t) cos α(t)B(t)−T
2
1 − b(t) −1 π
où B(t) = et b(t) = 4 sin t , α(t) = (3 − 2 sin 3t) avec 0 ≤ t ≤ 2π.
b(t)2 1 − b(t)2 6
02 −I2
La matrice W (t) est J-symplectique pour tout t ∈ [0, 2π] où J = .
I2 02
Par application de l’algorithme 4 nous obtenons pour quelques valeurs de t ∈ [0, 2π] les résultats
suivants :
• A t = 0.13069 on a : kT (30) k = 7.6717 ≤ 8 d’où W est stable. De plus δS (W ) = 0.4691.
Le calcul des projecteurs Pr et Pv nous donne
0.1110 −0.1110 0.1110 0.1665
−15
0 0 0 0.1110
Pr = 10 ×
et Pv = I4
0.3331 −0.1110 0 0.1110
−0.0555 0 0 −0.2220
La matrice W est fortement stable.
Concernant la solution fondamentale X(t) de (1.30) (voir par exemple [[24], Chap. 3]) définie
par la condition initiale X(0) = I, on a la proposition suivante :
Proposition 1.4. La solution fondamentale X(t) de (1.30) définie par la condition initiale
X(0) = I est J-symplectique pour tout t ∈ R+ .
Démonstration. On a :
d dX(t)T dX(t)
(X(t)T JX(t)) = JX(t) + X(t)T J
dt dt dt
= (J H(t)X(t)) JX(t) + X(t)T JJ −1 H(t)X(t)
−1 T
X(0)T JX(0) = J
La solution fondamentale X(t) satisfait pour tout t ∈ R et pour tout entier k les relations
suivantes (cf. [24])
Nous avons la définition suivante concernant la stabilité et la stabilité forte des systèmes
Hamiltoniens
Définition 1.5. Le système (1.30) est :
– stable si chacune de ses solutions x(t) reste bornée dans R.
– fortement stable si il existe δ > 0 tel que tout système Hamiltonien à coefficients T -
périodiques de la forme
dx(t)
J = H̃(t)x(t)
dt
satisfaisant Z T
kH(t) − H̃(t)kdt < δ
0
est stable.
Notons que de (1.32), toute solution x(t) = X(t)x0 de (1.30) vérifie d’une part
et d’autre part
sup kX k (T )x0 k = sup kX(kT )x0 k
k∈N k∈N
Il apparait donc qu’une condition nécessaire et suffisante de stabilité de (1.30) est que
les puissances de X(T ) restent bornées. Comme X(T ) est J-symplectique cela signifie (cf.
définition 1.2) qu’il existe une constante C telle que
sup kX k (T )k ≤ C
k∈N
La stabilité de (1.30) se ramène donc à celle de la matrice J-symplectique X(T ). On sait, d’après
la sous-section 1.3, que cela équivaut au fait que toutes les valeurs propres de X(T ) soient sur
le cercle unité et semi-simples. Nous avons le théorème suivant (voir[[24], p.196]) :
Ainsi, la stabilité (resp. la stabilité forte) de (1.30) se ramène à la stabilité (resp. la stabilité
forte) de la matrice J-symplectique W = X(T ) qui est la solution fondamentale de (1.30) évaluée
en la période T . De ceci nous pouvons appliquer l’Algorithme 3 ou 4 aux systèmes Hamiltoniens
comme nous le verrons dans le chapitre suivant.
2.1 Introduction
Le phénomène de résonance apparait dans certains systèmes physiques sensibles à certaines
fréquences. Ces systèmes peuvent accumuler une énergie, si celle-ci est appliquée sous forme
périodique, et proche d’une fréquence dite « fréquence de résonance ». Par exemple, lorsqu’on
écarte un système stable de sa position d’équilibre, il y retourne, généralement à travers des
oscillations d’une fréquence spécifique à ce système. Cette fréquence est qualifiée de fréquence
propre ou fréquence naturelle du système. Si on fournit à ce système de l’énergie régulièrement,
à la même fréquence que sa fréquence propre, l’amplitude des oscillations augmente : c’est la
résonance. Le terme «paramétrique» désigne la dépendance (temporelle) à l’égard des paramètres
du système.
Mathématiquement, le sujet concerne les équations différentielles ordinaires à coefficients pério-
diques dont les équations modèles sont l’équation de Mathieu et l’équation de Hill. Notons qu’en
générale, la résonance paramétrique n’est considérée non pas pour des systèmes à excitation
externe de la forme ẋ = f (x) + φ(t) mais pour des systèmes où la dépendance en temps survient
dans les coefficients de l’équation.
28
2.2. ÉTUDE DE QUELQUES ÉQUATIONS
ẍ + F (t)x = 0 (2.3)
La solution de l’équation de Hill peut être de la forme (2.2) et elle a des propriétés de
stabilité similaire à celle de l’équation de Mathieu. Par application du théorème de Floquet, si
x(t) est une solution arbitraire de (2.3), alors
De plus
x(t + 2π) = σx(t) = α1 ϕ(t + 2π) + α2 φ(t + 2π)
où
ϕ(t + 2π) = k1 ϕ(t) + k2 φ(t)
φ(t + 2π) = k3 ϕ(t) + k4 φ(t)
En supposant
φ(0) = 0 , φ0 (0) = 1
ϕ(0) = 1 , ϕ0 (0) = 0
nous avons :
k1 = ϕ(2π) , k2 = ϕ0 (2π)
k3 = φ(2π) , k4 = φ0 (2π)
et
x(t + 2π) = α1 (k1 ϕ(t) + k2 φ(t)) + α2 (k3 ϕ(t) + k4 φ(t))
D’où
α1 k1 + α2 k3 = σα1
α1 k2 + α2 k4 = σα2
α1 k3 k4 − σ
=− =− (2.5)
α2 k1 − σ k2
De l’équation différentielle (2.3), en différentiant le wronskien de (ϕ, φ) on a :
(ϕ(t)φ0 (t) − φ(t)ϕ0 (t))0 = ϕ0 (t)φ0 (t) + ϕ(t)φ00 (t) − φ0 (t)ϕ0 (t) − φ(t)ϕ00 (t)
= ϕ(t)φ00 (t) − φ(t)ϕ00 (t)
= −F (t)ϕ(t)φ(t) + F (t)ϕ(t)φ(t)
=0
Ainsi ϕ(t)φ0 (t) − φ(t)ϕ0 (t) = cste et dans notre cas (t = 2π) nous obtenons
σ 2 − σ(k1 + k4 ) + 1 = 0
D’où σ = e±2iπµ . Les trois différents cas possible du mouvement mentionné plus haut corres-
pondent ainsi à :
(a) | cos 2πµ| > 1 alors x(t) est instable
(b) | cos 2πµ| < 1 alors x(t) est stable
(c) | cos 2πµ| = 1 on ne peut conclure
ẋ = Cx (2.7)
où C est une matrice réelle diagonale d’ordre 2k avec des éléments imaginaires purs ±iwj
(j = 1, 2, · · · , k) : |wj | sont les fréquences naturelles du système. Nous disons de l’équation (2.7)
qu’elle est une équation non perturbée.
Supposons maintenant que certains paramètres du système S commencent à varier périodi-
quement avec une fréquence θ et une faible amplitude dépendant d’un petit paramètre ε. Le
mouvement du système perturbé est décrit par l’équation vectorielle
Remarque 2.1. Contrairement à (2.7), l’équation perturbée peut avoir une infinité de solutions
pour une petite valeur arbitraire de ε et un θ convenable. Dans ce cas, nous dirons que le système
S est paramétriquement excité ou que la résonance paramétrique commence.
Définition 2.1. Nous disons que θ0 est une fréquence critique du système S si pour tout δ > 0,
il existe ε, θ tel que |ε| < δ, |θ − θ0 | < δ pour lesquelles l’équation (2.8) a des solutions non
bornées lorsque t −→ +∞
Supposons maintenant que les équations (2.7) et (2.8) sont sous la forme canonique.
En d’autres mots :
0 −Ik
C = J −1 H0 , Bj (s) = J −1 Hl (s) , J =
Ik 0
wj + wh 6= 0 (j, h = 1, 2, · · · , k)
dx(t)
J = H(t)x(t), t∈R (2.12)
dt
où x(t) est un vecteur inconnu. L’Hamiltonien H(t) est une fonction matricielle T -périodique,
symétrique, continue par morceau et intégrable sur l’intervalle [0, T ].
Considérons à présent une perturbation du système (2.12) suivant un paramètre ε > 0 décrit
par
dx(t)
J = H(t, ε)x(t), t ∈ R (2.13)
dt
où l’Hamiltonien H(t, ε) est symétrique et vérifie H(t + T, ε) = H(t, ε).
Nous décrivons à présent la méthode permettant de déterminer la solution fondamentale
du système (2.13) à la période T . Connue sous le nom de la méthode de double balayage
orthogonale, elle consiste à subdiviser chaque moitié de la période en n intervalles. Ainsi, sur
chaque moitié de la période, on applique la méthode de balayage orthogonale en débutant à
t = 0 si l’intervalle d’intégration est de la forme [−π, π] ou t = T /2 si l’intervalle d’intégration
est de la forme [0, 2π] (cf. [11]).
Posons A(t, ε) = J −1 H(t, ε) dans l’équation (2.13) et considérons le système linéaire suivant
dU (t) T
≤ t ≤ T,
= A(t, ε)U (t), 2
dt
(2.14)
dV (t)
0 ≤ t ≤ T2 ,
= −A(t, ε)V (t),
dt
de conditions initiales
T T I2N
U( ) = V ( ) = √ (2.15)
2 2 2
Nous avons le lemme suivant
Lemme 2.1. Les solutions U (t) et V (t) du système d’équation (2.14) vérifie
T
U (t)T JU (t) = (1/2)J, ≤ t ≤ T, (2.16)
2
T
V (t)T JV (t) = (1/2)J, 0≤t≤ , (2.17)
2
Démonstration. Nous avons
d dU (t)T dU (t)
(U (t)T JU (t)) = JU (t) + U (t)T J
dt dt dt
= U (t) A(t, ε) JU (t) + U (t)T JA(t, ε)U (t)
T T
T T
U ( )T JU ( ) = (1/2)J
2 2
nous avons C = (1/2)J d’où l’égalité (2.16). Nous obtenons de manière identique l’égalité (2.17)
T k−1
et t2k = (1 − ) des intervalles [T /2, T ] et [0, T /2] respectivement, la résolution du
2 n
système (2.14) se résume à la résolution du système
dUk (t)
= A(t1k + t, ε)Uk (t),
dt
∀ k = 1, 2, · · · , n, (2.18)
dVk (t)
= −A(t2k − t, ε)Vk (t),
dt
T
sur l’intervalle
]0,2n ] (par la méthode de Runge Kutta par exemple.). Notons que la condition
Uk+1 (0)
initiale de l’équation (2.18) à l’itération k + 1 est obtenue par normalisation au
Vk+1 (0)
moyen de l’algorithme QR à t = T /2n. Ainsi à l’itération k = n, nous obtenons la matrice
La proposition suivante prouve que W (T, ε) est une meilleure approximation de X(T, ε)
Ainsi h iT h i
W T JW = Un (T /2n)(Vn (T /2n))−1 J Un (T /2n)(Vn (T /2n))−1
h i
= (Vn (T /2n)−1 )T (Un (T /2n))T JUn (T /2n) Vn (T /2n)−1
h i
= (1/2) (Vn (T /2n)−1 )T JVn (T /2n)−1
=J
D’où W est J-symplectique. De plus ∀ k = 1, 2, · · · , n,
Nous décrivons ces étapes dans l’algorithme suivant donnant une approximation de la matrice
X(T, ε) du système Hamiltonien perturbé (2.13)
Algorithme 5.
I2N
(1) Poser U1 (0) = V1 (0) = √
2
(2) Pour tout k = 1, 2, · · · , n,
T
(a) Résoudre sur [0, ]
2n
d Uk (t) A(t1k + t, ε) 0 U (t)
k
= 2
dt Vk (t) 0 −A(tk − t, ε) Vk (t)
T k−1 T k−1
avec la condition initiale Uk (0) et Vk (0) où t1k =
(1 + ) et t2k = (1 − )
2 n 2 n
(b) Déterminer une matrice orthogonale Qk par la décomposition QR telle que
U (T )
k 2n = Qk Rk
T
Vk ( 2n )
(c) Poser
Uk+1 (0) = Qk (1 : 2N, 1 : 2N ) et Vk+1 (0) = Qk (2N + 1 : 4N, 1 : 2N )
(3) Calculer
−1
T T T
W( , ε) = Un+1 ( ) Vn+1 ( )
2n 2n 2n
dx(t)
J = H(t, λ)x(t) (2.22)
dt
où l’Hamiltonien H(t, λ) est une fonction linéaire en λ définie par
Nous analysons dans ce qui suit le comportement des valeurs propres ρj (λ) (j = 1, 2, · · · , r)
de la matrice symplectique X(T, λ) pour λ dans un voisinage de 0. Notons que ses valeurs
propres sont solutions de l’équation
Théorème 2.2. Soit ρ0 une valeur propre de X(T, 0) pour λ = 0. Alors les valeurs propres de
la matrice X(T, λ) de l’équation (2.22) sont de la forme
avec
1 Z T
σj = (Q(t)xj , xj )dt (2.26)
(iJaj , aj ) 0
où aj sont des vecteurs propres associés à ρ0 et xj = X(t, 0)aj sont les solutions de l’équa-
tion (2.22) pour λ = 0.
Démonstration. Supposons que ρj (λ) est une valeur propre de X(T, λ) correspondant à aj (λ).
Alors nous avons
X(T, λ)aj (λ) = ρj (λ)aj (λ) (2.27)
En différentiant cette relation par rapport à λ et en multipliant par aj (λ) au sens du produit
scalaire indéfini (hx, yi = (iJx, y)), nous obtenons
et donc ! !
dρj (λ) ∂X(T, λ)
(iJaj (0), aj (0)) = (iJ aj (0), aj (0)) (2.29)
dλ λ=0
∂λ λ=0
Différentions à présent l’identité
∂X(t, λ)
J = H(t, λ)X(t, λ)
∂t
par rapport à λ. Nous obtenons
!
∂ ∂X(t, λ) ∂H(t, λ) ∂X(t, λ)
J = X(t, λ) + H(t, λ) (2.30)
∂t ∂λ ∂λ ∂λ
En considérant (2.30) comme étant une équation différentielle linéaire avec second membre nous
avons, par la méthode de la variation de la constante, pour λ = 0
! Z T !
∂X(T, λ) −1 −1 ∂H(t, λ)
= X(T, 0) X(T, 0) J X(T, 0)dt (2.31)
∂λ λ=0 0 ∂λ λ=0
En substituant ceci dans (2.29) et en utilisant le faite que X(t, λ) soit J-symplectique, à savoir
les égalités JX(t, λ)−1 J −1 = X(t, λ)T et JX(t, λ) = X(t, λ)−T J , nous obtenons
! !
dρj (λ) Z T
−1 −1 ∂H(t, λ)
(iJaj (0), aj (0)) = (iJX(T, 0) X(T, 0) J X(T, 0)dtaj (0), aj (0))
dλ λ=0 0 ∂λ λ=0
Z T
= i(JX(T, 0) X(T, 0)−1 J −1 Q(t)X(T, 0)dtaj (0), aj (0))
0
Z T
= i(X(T, 0)−T J X(T, 0)−1 J −1 Q(t)X(T, 0)dtaj (0), aj (0))
0
Z T
= i(J X(T, 0)−1 J −1 Q(t)X(T, 0)dtaj (0), X(T, 0)−1 aj (0))
0
Z T
−1
= iρ¯0 ( JX(T, 0)−1 J −1 Q(t)X(T, 0)dtaj (0), aj (0))
0
Z T
= iρ0 ( X(T, 0)T Q(t)X(T, 0)dtaj (0), aj (0))
0
Z T
= iρ0 (Q(t)X(T, 0)aj (0), X(T, 0)aj (0))dt
0
!
dρj (λ) Z T
(iJaj (0), aj (0)) = iρ0 (Q(t)xj (t), xj (t))dt
dλ λ=0 0
Posons
1 Z T
σj = (Q(t)xj , xj )dt
(iJaj (0), aj (0) 0
Nous avons !
dρj (λ)
= iρ0 σj
dλ λ=0
Notons que pour tout j = 1, 2, · · · , r ; (iJaj , aj ) 6= 0 et puisque Q(t) est définie positive,
Z T
(Q(t)xj , xj )dt > 0. De plus le calcul de la norme des ρj (λ) nous donne
0
Ainsi si ρ0 est une valeur propre de type 1 (voir la définition 1.3), on a σ1 > 0, · · · , σr > 0 et
par conséquent :
|ρj (λ)| < 1 pour Imλ > 0 (j = 1, 2, · · · , r)
|ρj (λ)| > 1 pour Imλ < 0 (j = 1, 2, · · · , r)
De même si ρ0 est une valeur propre de type 2, nous avons σ1 < 0, · · · , σr < 0 et donc
Nous examinons le cas particulier où le paramètre λ est réel (Imλ = 0). Pour cela nous
considérons la définition suivante
Définition 2.2. Supposons que Q(t) est définie positive pour tout t. Alors :
• Si λ > 0, H(t) + λQ(t) > H(t). On dit qu’il y a une augmentation de l’Hamiltonien.
• Si λ < 0, H(t) + λQ(t) < H(t). On dit qu’il y a une diminution de l’Hamiltonien.
Théorème 2.3. Pour une augmentation de l’Hamiltonien, les valeurs propres de type 1 sont
sur le cercle unité et s’y déplacent dans le sens des arguments croissants, tandis que celles de
type 2 sont dans le sens des arguments décroissants.
Considérons pour ce faire λQ(t) une petite perturbation de l’Hamiltonien H(t) de l’équa-
tion (2.12). Soient les valeurs propres ρ0 = ei|θ| et ρ̄0 = e−i|θ| de la matrice X(T, 0) avec 0 < θ < π.
On a
(S0 aj , aj ) = ξ sin |θ|(iJaj , aj ) (2.32)
où ξ = 1 si aj est un vecteur propre associé à ρ0 et ξ = −1 si aj est un vecteur propre associé à
ρ̄0 . Ainsi l’équation (2.26) devient
ξ sin |θ| Z T
σj = (Q(t)xj , xj )dt (2.33)
(iS0 aj , aj ) 0
B Si ρ0 est une valeur propre de couleur verte ((S0 aj , aj ) < 0), nous avons
Ainsi, une valeur propre ρj (λ) de couleur rouge (respectivement de couleur verte) quitte le
cercle unité vers l’intérieur (respectivement vers l’extérieur) lorsque λ parcourt le plan complexe
supérieur. De même, si λ décrit le plan complexe inférieur, une valeur propre ρj (λ) de couleur
rouge (respectivement de couleur verte) quitte le cercle unité vers l’extérieur (respectivement
vers l’intérieur).
Nous donnons à présent le théorème décrivant le mouvement des valeurs propres rouges ou
vertes de la matrice X(T, λ). (cf. [4])
Théorème 2.4. Pour une augmentation de l’Hamiltonien (Q(t) > 0), les valeurs propres de la
matrice X(T, λ) de couleur rouge (respectivement de couleur verte) se déplacent sur le cercle
unité dans la partie supérieure du plan complexe dans la direction des arguments croissants
(respectivement décroissants). Dans le cas contraire, les valeurs propres rouges (respectivement
vertes) se déplacent sur le cercle unité dans la partie inférieure du plan complexe suivant les
arguments décroissants (respectivement croissants)
(S0 x(λ), x(λ)) = sin |ϕ(λ)|(iJx(λ), x(λ)), ∀ x(λ) vecteur propre associé à ρ(λ) (2.34)
Dans cette partie du cercle, sin |ϕ(λ)| > 0 −→ (iJx(λ), x(λ)) > 0, ∀ t. Ces valeurs propres sont
donc de type 1. Comme les valeurs propres conjuguées (ρ̄(λ) = e−i|ϕ(λ)| ) sont sur le cercle unité
dans le plan supérieur (ou inférieur), elles sont de couleur rouge et de type 2 et s’y déplacent
dans le sens des arguments décroissants.
La preuve est similaire pour les valeurs propres de couleur verte de la matrice X(T, λ). En
particulier, deux valeurs propres de X(T, λ) de même couleur se rencontrant sur le cercle unité
en un point autre que les points ±1, sont dans le même demi-plan. Elles sont donc de même
type conformément à la proposition 2. Ainsi elles restent sur le cercle unité.
Démonstration. Les deux valeurs propres ρ et ρ0 sont de différents types. En effet, si nous
supposant une augmentation de l’Hamiltonien (Q(t) > 0) et si la rencontre est sur la plan
supérieur du cercle unité, les valeurs propres de couleur rouge se déplacent dans le sens des
arguments croissants tandis que les valeurs propres de couleur verte se déplacent dans le sens
des arguments décroissants conformément au théorème 2.4. Nous déduisons alors que les valeurs
propres rouges sont de type 1 et les valeurs propres vertes de type 2. Mais deux valeurs propres
de différents types qui se rencontrent sur le cercle unité deviennent des valeurs propres de type
mêlé. Ainsi, elles bougent du cercle ou quittent le cercle unité.
3.1 Introduction
On part d’un système (dynamique) dont l’état est décrit par une fonction inconnue x dite
fonction d’état et vérifiant l’équation
où
– t ∈]0, +∞[
– Le vecteur x(t) appartient à l’espace d’état M , qui est un ouvert connexe de Rn ,
– u(t) ∈ U ouvert de Rm
On supposera que f vérifie les conditions de Cauchy-Lipschitz de sorte qu’on puisse assurer
l’existence d’une solution unique de (3.1).
On considère alors les ensembles de fonctions suivants :
U[0, T ] = {u : R −→ U | u est intégrable sur [0, T ]}
[
U= U[0, T ] (ensemble des contrôles)
T >0
Définition 3.1. Soit x0 ∈ Rn ; si on peut trouver u ∈ Uad ⊂ U et t1 > 0 tel que x(t1 ) ∈ T (t1 ),
on dit que u envoie x0 à la cible. x0 est dit contrôlable.
46
3.1. INTRODUCTION
Une fois le problème de contrôlabilité du système résolu et si l’on n’a pas unicité du contrôle
u, on peut chercher le «meilleur» relativement à un critère (ou coût) donné. On a alors un
problème de contrôle optimal.
Dans ce chapitre, nous nous intéressons au problème de contrôle optimal linéaire avec un
coût quadratique (LQ) qui est définie comme suite :
On considère un intervalle de temps [t0 , tf ] et un système de contrôle linéaire dans Rn
Remarque 3.1 (Existence de trajectoires optimales). Il est prouvé dans [21] que sous
l’hypothèse suivante sur R(t)
Z T Z T
m T
2
∃ α > 0 | ∀ u ∈ L ([0, T ], R ), u (t)R(t)u(t)dt ≥ α uT (t)u(t)dt (3.4)
0 0
Nous énonçons à présent les propriétés relatives au critère d’optimalité pour le problème
(LQ).
et la condition finale
λ(T ) = −xT (T )W (3.6)
De plus le contrôle optimal u s’écrit, pour presque tout t ∈ [0, T ],
Démonstration. Soit u(t) un contrôle optimal et x(t) la trajectoire associée sur [0, T ]. Alors le
coût est minimal parmi toutes les trajectoires solutions du système, partant de x0 (le point final
étant non fixé).
Soit up (t) ∈ L2 ([0, T ], Rm ) une perturbation du contrôle u(t) de la forme
dL(u) = 0
Or Z T
L(up ) = xTp (T )W xp (T ) + xTp (t)Q(t)xp (t) + uTp (t)R(t)up (t) dt
0
dont la résolution par la méthode de la variation de la constante nous donne pour tout t ∈ [0, T ]
Z t Z T
λ(t) = −xT (T )W M (T )M (t)−1 + xT (s)Q(s)M (s)dsM (t)−1 − xT (s)Q(s)M (s)dsM (t)−1
0 0
(3.10)
En revenant à l’équation (3.9), puis en tenant compte de (3.8) on a :
Z T Z T Z t
xT (t)Q(t)δx(t)dt = xT (t)Q(t)M (t) M (s)−1 B(s)δu(s)dsdt
0 0 0
Or de (3.10) on a
Z t Z T
xT (s)Q(s)M (s)dsM (t)−1 = λ(t) + xT (T )W M (T )M (t)−1 + xT (s)Q(s)M (s)dsM (t)−1
0 0
Donc
Z T Z T Z T
T T −1
x (t)Q(t)δx(t)dt = −x (T )W M (T ) M (t) B(t)δu(t)dt − λ(t)B(t)δu(t)dt (3.11)
0 0 0
ceci pour toute application δu ∈ L2 ([0, T ], Rm ). Ceci implique donc l’égalité pour presque tout
t ∈ [0, T ],
uT (t)R(t) − λ(t)B(t) = 0
Et donc
u(t) = R(t)−1 B T (t)λT (t)
Réciproquement s’il existe un vecteur adjoint λ(t) vérifiant (3.5) et (3.6) et si le contrôle u est
donné par (3.7), alors il est bien clair d’après le raisonnement précédent que
dL(u) = 0
Or L(·) étant strictement convexe ceci implique que u est un minimum global de L
∂H ∂H ∂H
ẋ(t) = = A(t)x(t) + B(t)u(t), λ̇(t) = − = −λ(t)A(t) + xT (t)Q(t) et =0
∂λ ∂x ∂u
Démonstration. D’après la remarque 3.1, il existe une unique trajectoire optimale qui, d’après
le théorème 3.1, est caractérisée par le système d’équations
ẋ(t) = A(t)x(t) + B(t)u(t)
λ̇(t) = −λ(t)A(t) + xT (t)Q(t)
Il faut donc montrer que λ(t) = xT (t)P (t), où P (t) est solution de (3.14).
Supposons que λ(t) s’écrit ainsi. Alors, d’après l’équation vérifiée par le couple (x(t), λ(t)) on a :
Or
λ̇(t) = −λ(t)A(t) + xT (t)Q(t) = −xT (t)P (t)A(t) + xT (t)Q(t) = xT (t) [−P (t)A(t) + Q(t)]
On obtient par identification que P (t) doit être solution de l’équation (3.14).
Réciproquement Soit P (t) solution de l’équation
Ṗ (t) = Q(t) − A(t)T P (t) − P (t)A(t) − P (t)B(t)R(t)−1 B(t)T P (t)
P (T ) = −W
Tout d’abord P (t) est symétrique car le second membre de l’équation différentielle l’est, et
la matrice W est symétrique. Posons maintenant λ1 (t) = x1 (t)T P (t), où x1 (t) est solution de
ẋ1 (t) = A(t)x1 (t) + B(t)u1 (t), et u1 (t) = R−1 (t)B T (t)P (t)x1 (t). On a alors
Autrement dit le triplet (x1 , λ1 , u1 ) vérifie exactement les équations du théorème 3.1. Par
conséquent la trajectoire x1 est optimale, et par unicité il vient x1 (t) = x(t), u1 (t) = u(t), puis
λ1 (t) = λ(t). En particulier on a donc λ(t) = xT (t)P (t), et u(t) = R−1 (t)B T (t)P (t)x(t).
Ainsi sous les hypothèses (a), (b) et (c) (cf. [18], p.121, Lemme 4.1) il existe U (t) et V (t) telles
que
dU = A(t)U (t) + B(t)R(t)−1 B T (t)V (t)
dt
(3.16)
dV = Q(t)U (t) − AT (t)V (t)
dt
Proposition 3.1. La solution P (t) de l’équation de Riccati (3.14) est déduite à partir du
système (3.16)
U −1 0 I −Q AT
Posons X = ,J = et H = .
V −I 0 A BR−1 B T
d
R(T − t) = −K(T − t)R(T − t), 0≤t≤T
dt (3.19)
R(T ) = I
2N
Ainsi, les solutions Y (t) et R(t) des équations (3.18) et (3.19) sont obtenues respectivement
par la méthode de Runge-Kutta et la méthode de Heun (ou Euler). Notons que dans la résolution
de l’équation (3.18), nous normalisons à chaque fois la solution avec l’algorithme QR. Cela nous
donne l’égalité
Y (t)T Y (t) = Y (t)Y (t)T = I2N , 0 ≤ t ≤ T (3.20)
La proposition suivante nous donne une expression de la solution de (3.17) à partir de celles
de (3.18) et (3.19).
Proposition 3.2. Soit Y (t) et R(t) les solutions des équations différentielles (3.18) et (3.19)
respectivement. Alors
X(t) = Y (t)R(t)R(0)−1 , 0 ≤ t ≤ T (3.21)
est la solution de (3.17).
dR(t)
car = K(t)R(t). Alors
dt
d
X(t) = A(t)Y (t)R(t)R(0)−1 = A(t)X(t)
dt
avec X(0) = I2N .
Cette proposition montre que X(t) = Y (t)R(t)R(0)−1 est la solution du système (3.17) avec
X(0) = I2N . Nous proposons l’algorithme ci-dessous qui calcule la solution du système (3.17).
Algorithme 6.
1. Initialisation
(a) Poser Y1 = I et R1 = I.
(b) Déterminer une matrice triangulaire K1 telle que K1 + K1T = A(0)T + A(0)
2. Pour k = 1, 2, · · · , n − 1
(a) Résoudre (par la méthode de Runge-Kutta) le système
d
Y (t) = A(t)Y (t) − Y (t)K1 , (k − 1)T /n ≤ t ≤ kT /n
dt
Y ((k − 1)T /n) = Y
k
T T
Kk+1 + Kk+1 = Yk+1 [A(kT /n)T + A(kT /n)]Yk+1
3. Pour k = 1, 2, · · · , n − 1
(a) Résoudre (par la méthode de Heun) le système
d
R(T − 1) = −Kn−1−k R(T − t), (n − k)T /n ≤ t ≤ (n + 1 − k)T /n
dt
R((n − k)T /n)) = R
n−1−k
En considérant la matrice
0 −iIn
J =
iIn 0
où In est la matrice identité d’ordre n, on a la proposition suivante :
Démonstration. On a :
AT + QT (Ā)−1 B̄(RT )−1 B T −QT (Ā)−1
TT =
−(Ā)−1 B̄(RT )−1 B T (Ā)−1
T ∗ JT = J
Ainsi toutes les valeurs propres de T sont non nulles car T est J-symplectique et on a le
lemme suivant :
Lemme 3.1. Soit A une matrice non singulière ; Q, R deux matrices définies positives et T
une matrice symplectique définie en (3.23).
Si λ est une valeur propre de T , alors (λ)−1 ∈ σ(T ) où σ(T ) est le spectre de T .
D’où
A−1 A−1 BR−1 B ∗
T −1 = (3.24)
QA−1 A∗ + QA−1 BR−1 B ∗
T
Soit λ une valeur propre de T et x1 x2 le vecteur propre correspondant. On a
−1 ∗ ∗ −1 −1 ∗ ∗ −1
x1 A + BR B (A ) Q −BR B (A ) x1 x1
T = ∗ −1 ∗ −1
= λ (3.25)
x2 −(A ) Q (A ) x2 x2
Puisque λ est valeur propre de T T , il s’ensuit que λ−1 appartient au spectre de (T −1 )T . Ainsi
on obtient de (3.24) que
x2 (AT )−1 (AT )−1 QT x x
2 = λ−1 2
(T −1 )T = T −1 T T −1 T −1 T T −1 T
−x1 B(R ) B (A ) A + B(R ) B (A ) Q −x1 −x1
Comme les équations (3.25) et (3.26) coïncident pour λ et (λ)−1 , on obtient que (λ)−1 ∈ σ(T ).
où Λ est la matrice diagonale contenant les valeurs propres de T à l’extérieur du cercle unité
(i.e de module supérieure stricte à 1) et W la matrice des vecteurs propres correspondant de T .
Définition 3.2.
• Une matrice A est stable si toutes ses valeurs propres sont à l’intérieur du cercle unité, i.e
|λi (A)| < 1 pour tout i = 1, · · · , n.
• Le couple (A, B) est dit stabilisable s’il existe une matrice K ∈ Mmn (C) telle que toutes
les valeurs propres de la matrice A + BK soient à l’intérieur du cercle unité.
• Une solution X de l’équation DARE est dite stabilisée si toutes les valeurs propres de la
matrice A − B(R + B ∗ XB)−1 B ∗ XA sont à l’intérieur du cercle unité.
On a le théorème suivant
Théorème 3.3. Soient (A, B) et (A∗ , Q) un couple stabilisable avec A une matrice non singulière.
Supposons que l’équation discrète algébrique de Riccati (DARE) en (3.22) à une solution
Hermitienne et que les blocs matriciels W12 , W22 dans (3.28) sont non singuliers. Alors,
−1
XR = W22 W12 (3.29)
est l’unique solution Hermitienne maximale de (3.22) et XR est une matrice définie positive
(Λ)−1 = W12
−1 −1
AW12 + W12 BR−1 B ∗ (A∗ )−1 (QW12 − W22 )
−1
Multiplions maintenant cette égalité par W12 à droite et A∗ à gauche. Nous obtenons
A∗ W22 W12
−1
A + A∗ W22 W12
−1
BR−1 B ∗ (A∗ )−1 (QW12 − W22 )W12
−1 −1
= (W22 − QW12 )W12
D’où
A∗ W22 W12
−1
A + In + A∗ W22 W12
−1
BR−1 B ∗ (A∗ )−1 (Q − W22 W12
−1
)=0
A∗ W22 W12
−1
A + A∗ In + W22 W12
−1
BR−1 B ∗ (A∗ )−1 (Q − W22 W12
−1
)=0
−1
La matrice In + W22 W12 BR−1 B ∗ est non singulière. En effet soit y un vecteur ligne tel que
−1
y In + W22 W12 BR−1 B ∗ = 0 (3.35)
En multipliant (3.34) par y puis en utilisant (3.35) et la non singularité de W12 , W22 et A, on
−1
a yW22 W12 A = 0. Ce qui implique que y = 0. En outre de l’égalité suivante
−1
In + W22 W12 BR−1 B ∗ W22 W12
−1 −1
= W22 W12 In + BR−1 B ∗ W22 W12
−1
,
−1
et la non singularité de In + W22 W12 BR−1 B ∗ , W12 , W22 on obtient la non singularité de la
−1
matrice In + BR−1 B ∗ W22 W12 dont l’inverse est donné par (cf. [17])
−1 −1
In + BR−1 B ∗ W22 W12
−1
= In − B R + B ∗ W22 W12
−1
B B ∗ W22 W12
−1
(3.36)
−1
−1
Multiplions à présent (3.34) par A∗ In + W22 W12 BR−1 B ∗ et utilisons la non singularité
de W12 et W22 . Nous avons :
−1
A∗ In + W22 W12
−1
BR−1 B ∗ −1
W22 W12 −1
A + Q − W22 W12 =0
−1
A∗ W22 W12
−1
+ BR−1 B ∗ −1
A + Q = W22 W12
−1
A∗ W22 W12
−1
In + BR−1 B ∗ W22 W12
−1 −1
A + Q = W22 W12
−1
Ainsi X = W22 W12 est solution de (3.22). Q, R étant définies positives et les couples (A, B)
∗
et (A , Q) étant stabilisables, les hypothèses du théorème 13.1.3 dans [16] sont satisfaites, ce
qui assure l’existence de la solution maximale Hermitienne XR de (3.22). De plus XR ≥ 0, et
A − B(R + B ∗ XR B)−1 B ∗ XR A est stable ([16], Théorème 13.1.3). La solution maximale étant
−1
unique ([16], Corolaire 13.1.2) on obtient donc que XR = W22 W12 et XR > 0 s’ensuit de la non
singularité de W12 et W22 ce qui achève la démonstration.
Remarque 3.3. i) Il est évident de (3.23) que la méthode algébrique pour calculer la solution
maximale (3.29) de l’équation discrète algébrique de Riccati (3.22) ne peut être utiliser
quand la matrice A est singulière.
ii) Les hypothèses du Théorème 3.3 garantissent que la matrice T n’a pas de valeurs propres
sur le cercle unité ;
i) Si les blocs matriciels W11 et W21 sont non singuliers, en utilisant (3.30) et (3.31) et en
procédant comme dans la démonstration du théorème 3.3, la solution minimale Hermitienne
Xm de (3.22) est donnée par
−1
Xm = W21 W11
et soit ξ(t) une certaine trajectoire de Rn sur [0, T ], partant d’un point ξ0 . Le but est de
déterminer un contrôle tel que la trajectoire associée, solution de (3.37), suive le mieux possible
la trajectoire de référence ξ(t).
La théorie (LQ) faite précédemment nous assure alors que le contrôle optimal existe, est
unique, et s’écrit
u(t) = R−1 B1 (t)P1 (t)ε1 (t)
où P1 (t) est solution de l’équation de Riccati
Ṗ1 (t) = Q1 (t) − A1 (t)T P1 (t) − P1 (t)A1 (t) − P1 (t)B1 (t)R(t)−1 B1 (t)T P1 (t)
P1 (tf ) = −W1
Cette solution de l’équation de Riccati étant déduite d’un système Hamiltonien, nous pouvons
appliquer les études sur la stabilité des matrices symplectiques afin d’analyser la stabilité du
système perturbé.
Au terme de notre étude, il apparaît que les matrices symplectiques jouent un rôle important
dans l’analyse de la stabilité de certains systèmes dynamiques. Son application dans les théories
de la résonance paramétrique et du contrôle optimal se fait au travers de l’étude des systèmes
Hamiltoniens à coefficients périodiques. En contrôle optimal, la relation entre les systèmes
Hamiltoniens et la solution de l’équation algébrique de Riccati provenant du contrôle optimal,
nous assure l’application des études sur la stabilité et la stabilité forte des matrices symplec-
tiques pour analyser la stabilité du système contrôlé. Les systèmes Hamiltoniens à coefficients
périodiques offrent donc un cadre idéal pour appliquer les études sur la stabilité des matrices
symplectiques.
Notre travail futur consistera donc à étudier différents types de perturbation des systèmes
Hamiltoniens et à analyser le comportement des valeurs propres de la matrice monodromie.
62
Annexe A
Annexe
63
A.1. CODE SOURCE DU PROGRAMME DE L’ALGORITHME 4
51 [ e , i e ] = s o r t ( r e a l ( d i a g (D) ) ) ;
52 i s=v a l n e g ( e , t o l ) ;
53 % On c o n s t r u i t l e p r o j e c t e u r s p e c t r a l a s s o c i e aux v a l e u r s p r o p r e s
negative ,
54 % i . e . l e p r o j e c t e u r Pv
55 I = [ eye ( i s ) , z e r o s ( i s , N−i s ) ; z e r o s (N−i s , i s ) , z e r o s (N−i s ) ] ;
56 V = V( : , i e ) ;
57 Pv= V∗ I ∗ i n v (V) ;
58 % Pour l a s t a b i l i t e f o r t e on d o i t a v o i r S0 ( I − 2Pv) s y m e t r i q u e
definie positive
59 egv = e i g ( S0 ∗( eye (N) − 2∗Pv ) ) ;
60 i v=d e f p o s ( egv , t o l ) ;
61 Pr= eye (N) − Pv ;
62 end ;
63 f u n c t i o n i s=v a l n e g ( e , t o l )
64 % e = v e c t e u r de nombres r e e l s .
65 % t o l = une c o n s t a n t e p o s i t i v e ds 1 v o i s i n a g e de z e r o .
66 ne=s i z e ( e , 1 ) ; i s =0;
67 f o r k=1: ne
68 i f ( e ( k )<0 & abs ( e ( k ) ) > t o l ) ,
69 i s=i s +1;
70 end ;
71 end ;
72
73 f u n c t i o n i v=d e f p o s ( egv , t o l )
74 % egv = vps de S0 ∗( eye (N) −2∗Pv )
75 % t o l = c o n s t a n t e p o s i t i v e proche ds 1 v o i s i n a g e de z e r o .
76 nev=s i z e ( egv , 1 ) ; i v =0;
77 f o r p=1: nev
78 i f ( egv ( p )<0 | min ( abs ( egv ( p ) ) ) < t o l ) ,
79 i v=i v +1;
80 end ;
81 end ;
[1] M. Dosso, Sur quelques algorithmes d’analyse de stabilité forte des matrices symplectiques,
PHD Thesis (Septembre 2006), Université de Bretagne Occidentale. Ecole Doctorale SMIS,
Laboratoire de Mathématique, UFR Science et techniques.
[2] M. Dosso, N. Coulibaly and L. Samassi, Strong stability of symplectic matrices using a
spectral dichotomy method, Far East Journal Applied Mathematics, 79(2)(2013), pp. 73-110
[3] M. Dosso, N. Coulibaly, Symplectic matrices and strong stability of Hamiltonian system
with periodic coefficients, J. of Mathematical Science Advances and Applications, 28(2014),
pp. 15-38.
[4] M. Dosso, N. Coulibaly, An analysis of the behavior of multipliers of Hamiltonian system
with periodic coefficients, Far East Journal of Mathematical Sciences, 99(3)2016, pp. 301-322.
[5] M. Dosso, M. Sadkane, On the strongly stability of symplectic matrices, Numerical Linear
Algebra with Application, 20(2)(2011), pp. 234-249
[6] S.K. Godunov, M. Sadkane, Some new algorithms for the spectral dichotomy methods,
Linear Algebra Appli., 358(2003), pp. 173-194.
[7] S.K. Godunov, M. Sadkane, Spectral analysis of symplectic matrices with application to the
theory of parametric resonance, SIAM J. Matrix Anal. Appl., 28(2006), pp. 1083-1096.
[8] S. K. Godunov, Problem of the dichotomy of the spectrum of a matrix, Siberian Math. J.,
27(1986), pp. 649-660.
[9] S. K. Godunov, M. Sadkane, Numerical determination of a canonical form of a symplectic
matrix, Siberian Math. J., 42(2001), pp. 629-647.
[10] S. K. Godunov, Modern Aspects of Linear Algebra, Amer. Math. Soc., 175(1998).
[11] S. K. Godunov, Ordinary differential equations with constant coefficient, American Mathe-
matical Soc. 1 janv. (1997), 282.
66
BIBLIOGRAPHIE