Vous êtes sur la page 1sur 124

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/305085064

Mathématiques des modèles dynamiques pour économistes

Book · January 2001

CITATIONS READS

2 1,318

1 author:

Sophie Jallais
Université de Paris 1 Panthéon-Sorbonne
18 PUBLICATIONS 79 CITATIONS

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Post-enquête REPONSE (Convention Dares Ministère du Travail et CES, 2012-2014) View project

All content following this page was uploaded by Sophie Jallais on 30 December 2021.

The user has requested enhancement of the downloaded file.


Introduction

Alors que les grandeurs économiques — comme les prix, les


quantités offertes ou demandées, le produit intérieur brut, le taux
de chômage… — évoluent dans le temps, les économistes consa-
crent la majeure partie de leurs théories aux équilibres, à savoir
aux situations dans lesquelles (au contraire) rien ne change. Pour
justifier une telle démarche, il leur est nécessaire de montrer que
ces situations sont l’aboutissement de processus (c’est-à-dire
d’évolutions dans le temps) dont les caractéristiques doivent alors
être précisées. C’est dans cette perspective qu’ont été conçus le
tâtonnement walrassien — censé représenter la « loi de l’offre et de
la demande » —, les modèles à anticipations avec décalages dans
le temps (comme le cobweb) ou à interactions entre des processus
(comme le multiplicateur et l’accélérateur), ou encore les modèles
de Solow, de Kalecki, de Goodwin, de Diamond... Et c’est à la
compréhension de tels processus que cet ouvrage est consacré.

Une approche spécifique à la modélisation économique

En économie, les modèles dynamiques — et c’est là un point


essentiel qui les différencie des modèles utilisés en physique —
sont généralement décrits par des relations de type qualitatif. Le
plus souvent, en effet, rien n’est dit, dans la théorie, sur les valeurs
précises des paramètres qui caractérisent les fonctions ; seule la
forme de ces dernières (monotone, convexe, concave, etc.) est
précisée.
Cette adoption d’une approche qualitative a des conséquences
importantes sur le traitement mathématique des modèles. L’accent
ne pouvant être mis sur la forme exacte des solutions — par
exemple sur la connaissance point par point des trajectoires ou sur
leur vitesse de convergence —, l’analyse porte sur le nombre et la
stabilité des équilibres. Plus précisément, occupé, on l’a dit, par la
question de la convergence, le théoricien cherche principalement à
caractériser l’ensemble de stabilité de chaque équilibre, à savoir
l’ensemble des conditions initiales auxquelles correspondent les

3
trajectoires qui convergent vers celui-ci. Il s’agit donc moins de
déterminer ce qui se passe exactement, que de dégager des
tendances, des sens de variation, des propriétés des ensembles de
stabilité ainsi que l’influence exercée sur ces derniers par les
paramètres des modèles.
L’approche adoptée diffère donc radicalement de celle que l’on
rencontre dans les sciences de la nature, notamment en physique,
où la recherche des solutions — exactes ou approchées — d’équations
différentielles ou de récurrence de divers types occupe une place
centrale, avec tout ce que cela suppose comme techniques plus ou
moins sophistiquées d’intégration et de calculs de polynômes.

L’importance du cas linéaire

Même si cela est parfois le cas, la plupart des modèles écono-


miques ne sont pas linéaires — les fonctions choisies pour caracté-
riser les ménages et les entreprises ne l’étant pas elles-mêmes.
Dans le cas de la dynamique, la détermination exacte des trajectoires
est alors le plus souvent impossible. Certes les mathématiciens ont
cherché à établir des méthodes qui permettent d’obtenir des
trajectoires approchées, suffisantes pour résoudre tel ou tel
problème particulier ou établir des prédictions « correctes ». Mais,
pour la raison évoquée plus haut, ces méthodes sont de peu
d’utilité pour une bonne partie de la modélisation en économie.
Ici, le recours à la linéarisation devient quasiment inévitable.
Celle-ci consiste à approcher, au voisinage d’un point, un modèle
non linéaire par un modèle linéaire. Elle n’est donc valable que
localement, mais peut néanmoins suffire lorsque le point de
référence est un équilibre et que l’on cherche à en caractériser
l’ensemble de stabilité — à condition, toutefois, de choisir des
conditions initiales « proches » de l’équilibre considéré.
L’avantage de l’approche linéaire est qu’elle permet (théorique-
ment) de résoudre les modèles et, en conséquence, de réfléchir
dessus — même si l’on doit être conscient des limites de cette
réflexion, du fait même de la linéarisation. Là est la première
raison pour laquelle la plus grande partie de cet ouvrage (les deux
premiers chapitres) lui est consacrée. La seconde est qu’en
dynamique une bonne compréhension du cas linéaire est un
4
préalable indispensable pour la compréhension du cas non linéaire
(auquel nous introduirons dans le troisième chapitre de cet ouvrage).
L’approche linéaire fait appel à certaines techniques mathéma-
tiques — utilisées d’ailleurs dans des contextes très divers en
économie — qui, du fait même de leur relative simplicité, peuvent
être exposées de façon accessible à un étudiant de fin de première
année de DEUG d’économie1. Dans cet ouvrage, un effort tout
particulier a été fait dans ce sens. C’est pourquoi le mode de
présentation adopté est proche de celui d’un manuel : après
présentation du cas général, des exemples types sont proposés,
sous la forme d’exercices, qui permettent de mieux cerner le
comportement des divers types de trajectoires. Quelques rappels
de mathématiques sont donnés en encadrés et un glossaire rappelle
le sens de certains concepts mathématiques, de sorte que le lecteur
devrait disposer de tous les éléments nécessaires pour étudier ce
comportement, dans toutes ses variantes possibles.

1
Nous entendons essentiellement par là (du moins ici) une personne maîtrisant les
techniques de dérivation des fonctions d’une et de plusieurs variables et connaissant
un certain nombre de concepts de base d’algèbre linéaire (espace vectoriel, sous-
espace vectoriel, système générateur, rang, base, dimension).

5
CHAPITRE I
ÉVOLUTIONS SÉQUENTIELLES LINÉAIRES
À COEFFICIENTS CONSTANTS

Dans les modèles dynamiques, on trouve deux façons différentes


de représenter le temps. Soit l’on considère que le temps est une
succession de périodes de durées égales (des années, des mois, des
instants…). Soit l’on considère qu’il s’écoule continûment. Dans
le premier cas, le temps, généralement noté t, est un entier naturel ;
les évolutions qui s’y déroulent sont dites séquentielles et décrites
par des équations (ou systèmes d’équations) de récurrence. Dans le
second, le temps est un réel ; les évolutions qui s’y déroulent sont
alors continues et décrites par des équations (ou par des systèmes
d’équations) différentielles.
En économie, l’approche séquentielle semble la plus « intuitive »,
d’une part parce que beaucoup de variables économiques (les prix
par exemple) n’évoluent pas en permanence, d’autre part parce
que, quoi qu’il en soit, les indicateurs économiques correspondant
aux variables des modèles ne sont mesurés que périodiquement —
quotidiennement s’il s’agit des indicateurs boursiers ou monétaires,
trimestriellement s’il s’agit du PIB, etc. Toutefois, l’approche en
continu est souvent retenue : elle présente en effet le double
avantage d’éviter le problème (hautement conventionnel) de la
périodisation et d’être d’un traitement mathématique relativement
plus simple.
Ce chapitre est entièrement consacré à l’étude du premier type
d’évolution (dans le cas linéaire). Le second type d’évolution sera
l’objet du deuxième chapitre (également consacré, nous l’avons
dit, au cas linéaire). Dans chacun de ces chapitres seront successi-
vement étudiés les processus décrits par une équation (I) puis par
un système d’équations (II).

6
I Équations de récurrence linéaires d’ordre n à
coefficients constants

Les équations de récurrence linéaires d’ordre n à coefficients


constants sont des équations du type :
[1] xt + n + an – 1xt + n – 1 + … + aixt + i + … + a0xt = f(t)
où t  IN, ai  IR (les ai étant les coefficients de l’équation) avec
a0 ≠ 0, et où f(ּ) est une fonction de IN dans IR.
L’inconnue de cette équation est la suite* {x0, x1, x2, ...}, notée
(xt), les ai et f(t) étant donnés. On dit que l’équation est de
récurrence et d’ordre n, car elle fait dépendre le t + n + 1ème terme
de cette suite, xt + n, des n termes précédents, xt + n – 1, xt + n – 2,..., xt.
L’équation [1] peut aussi s’écrire :
[2] xt + n = g(xt + n – 1 ,…, xt , t),
où g(ּ) est définie par :
g(xt + n – 1 ,…, xt , t) = f(t) – an – 1xt + n – 1 – … – a0xt
Pour connaître n’importe quel terme de la suite (xt), il suffit donc
d’en connaître les n premiers, x0, x1, x2,…, xn – 1. Pour cette raison,
on dit que le vecteur X0 = (x0,x1,,xn – 1), encore noté (x0 , x1 ,…, xn –
1), donne la condition initiale du processus, le nombre d’éléments
de ce vecteur étant évidemment égal à l’ordre de l’équation [1].
Insistons ici sur le fait que la connaissance du vecteur X0 permet
de déterminer la suite (xt), et ce, sans ambiguïté. La connaissance
de X0 permet en effet de déterminer un unique xn, puisque l’on a
xn = – an – 1xn – 1 – … – a0x0 + f(0). De même, lorsque l’on connaît
xn, on peut déterminer xn + 1 sans ambiguïté, puisque l’on a
xn + 1 = – an – 1xn – … – a0x1 + f(1). Et ainsi de suite. On voit donc
ici que, à chaque condition initiale X0, correspond une suite unique
(xt) solution de l’équation [1].
Lorsque t est le temps, chacune de ces suites est également
appelée trajectoire, l’ensemble des trajectoires décrites par une même
équation étant lui-même appelé processus. Autrement dit, toute
seule, l’équation [1] décrit un processus ; mais, si on lui adjoint
un vecteur donné X0, elle décrit une trajectoire.

* Les mots et expressions suivis d’une astérisque sont définis dans le glossaire en fin
d’ouvrage.

7
En économie, on se sert d’équations de ce type pour décrire
l’évolution du prix d’un bien ou d’un titre, celle du revenu, de
l’investissement, etc. (voir les applications pages 31-36). Suppo-
sons, par exemple, que xt désigne le prix du blé à la période t et
que l’évolution de ce prix soit décrite par l’équation d’ordre 2 :
[3] 4xt + 2 + 4xt + 1 – 3xt = 5.
Ici, si l’on connaît le prix du blé sur les deux premières périodes,
alors, grâce à l’équation [3], il est possible de déterminer sans
ambiguïté le prix du blé à n’importe quelle période, et ce, indéfi-
niment. Le prix du blé à la période t se déduit donc de ce même
prix aux périodes précédentes. La question importante pour les
économistes est alors de savoir si cette suite de prix converge, et,
si oui, vers quelle valeur. Comme celle-ci représente un équilibre,
on va commencer par présenter cette notion.

1. La notion d’équilibre

Le terme « équilibre » est « utilisé en économie pour désigner


des situations où rien ne bouge » [Guerrien, 1996, p. 190].

A – Exemple

Supposons que l’on s’intéresse à l’évolution du prix du blé. Dire


ici que « rien ne bouge », c’est dire que le prix du blé est constant.
Si l’on désigne par xt le prix du blé à la période t, et si l’évolution
de ce prix est décrite par l’équation [3], ce que nous venons de
dire signifie que, quel que soit t  IN, xt est égal à une constante xe.
Les « équilibres » du processus décrit par l’équation [3] sont
donc les suites (ou trajectoires) stationnaires (xe), où xe vérifie
l’équation suivante :
4xe + 4xe – 3xe = 5,
5
d’où l’on déduit xe = = 1.
4+4–3
Le processus décrit par l’équation [3] a donc un équilibre unique,
la suite stationnaire formée de 1 : si le prix du blé est égal à 1 aux
deux premières périodes, alors il restera toujours égal à 1.

8
B – Détermination des équilibres d’un processus

Comme dans l’exemple précédent, les équilibres du processus


décrit par l’équation :
[1] xt + n + an – 1xt + n – 1 + … + aixt + i + … + a0xt = f(t),
sont les suites (ou trajectoires) stationnaires (xe), où xe — que l’on
appellera valeur d’équilibre ou tout simplement équilibre s’il n’y
a pas d’ambiguïté — vérifie l’équation suivante :
[4] xe + an – 1xe + … + aixe + … + a0xe = f(t).
Comme les coefficients ai sont des constantes, cette égalité n’est
possible que si f(ּ) est une fonction constante, donc si  t  IN,
f(t) = c, où c est une constante. Dans ce cas, l’équation [4] devient :
[5] xe + an – 1xe + … + aixe + … + a0xe = c
ou, ce qui revient au même : (1 + an – 1 + … + ai + … + a0)xe = c.
Deux cas sont alors possibles :
1er cas : 1 + an – 1 + … + ai + … + a0 ≠ 0.
c
Dans ce cas xe = .
1 + an – 1 + … + ai + … + a0
c
La suite stationnaire (
1 + an – 1 + … + ai + … + a0
)
est donc l’unique
équilibre du processus.
2nd cas : 1 + an – 1 + … + ai + … + a0 = 0.
L’équation [5] devient alors : 0ּxe = c.
— si c ≠ 0, cette équation est impossible : il n’y a pas d’équilibre ;
— si c = 0, alors l’équation [5] devient : 0ּxe = 0, ce qui est vrai
quel que soit le réel xe. Toute suite stationnaire est donc un
équilibre ; autrement dit, à toute condition initiale de la forme
X0 = (xe ,…, xe), xe  IR, correspond une suite stationnaire solution
de l’équation [5].

2. Résolution des équations de récurrence linéaires


d’ordre n à coefficients constants

Nous venons de voir comment déterminer, s’il(s) existe(nt), le(s)


équilibre(s) d’un processus décrit par une équation de récurrence
du type de l’équation [1].

9
Ainsi, dans l’exemple de l’équation [3] décrivant l’évolution du
prix du blé, si, aux deux premières périodes, ce prix égale 1, alors
il reste toujours égal à 1. Ce cas de figure n’est évidemment pas le
plus intéressant en dynamique : d’une part, il est hautement
improbable (puisqu’il faut que x0 et x1 soient égaux à 1, alors
qu’ils peuvent prendre n’importe quelle valeur réelle positive) ;
d’autre part, la question importante est plutôt : que se passe-t-il si
le prix du blé n’est pas égal à 1 à l’une au moins des deux
premières périodes ? (Et, plus généralement, que se passe-t-il
lorsque la condition initiale n’est pas telle que la solution de
l’équation [1] est un équilibre ?)
Pour répondre à cette question, le plus simple, lorsque cela est
possible, est souvent de commencer par exprimer xt en fonction de
t et de la condition initiale : c’est ce que l’on appelle donner la
solution générale de l’équation décrivant ce processus.

A – Solution générale des équations homogènes

Les équations homogènes sont les équations dont le second


membre est nul. On dit parfois qu’elles sont « sans second membre ».
Ce sont donc des équations du type :
[6] xt + n + an – 1xt + n – 1 + … + aixt + i + … + a0xt = 0
Afin de voir comment se présente la solution de cette équation,
on va commencer par étudier les cas où n = 1 puis où n = 2. Cette
solution, on la notera indifféremment (xt) ou xt, pour désigner la
suite (xt) ou, ce qui revient au même, son terme général xt.

a) Équations homogènes d’ordre 1

Les équations homogènes d’ordre 1 sont des équations du type :


[7] xt + 1 + a0xt = 0 ou, ce qui revient au même, xt + 1 = – a0xt
On a donc x1 = – a0x0, x2 = – a0x1 = ( – a0)²x0 et, plus généralement,
par récurrence, xt = x0( – a0)t. Le terme général de la suite solution
de l’équation [7] est donc : xt = x0( – a0)t.

10
b) Équations homogènes d’ordre 2

Les équations homogènes d’ordre 2 sont des équations du type :


[8] xt + 2 + a1xt + 1 + a0xt = 0, avec a0 ≠ 0.
Nous avons vu que, à la condition initiale (x0 , x1), correspond
une suite unique, (xt), solution de l’équation [8]. Or nous savons
déjà que, lorsque la condition initiale est (0 , 0), la solution de
l’équation [8] est la suite stationnaire (xt) = (0), t  IN (ce sont les
cas c = 0 du 1 B). Reste donc à déterminer les solutions de l’équation
[8] pour toutes les autres conditions initiales.

□ Résolution de l’équation

Pour déterminer ces solutions, nous allons nous inspirer de ce


qui se passe dans le cas n = 1, en considérant une suite dont le
terme général est αλt (avec α ≠ 0 et λ ≠ 0 puisque nous cherchons
des solutions non nulles).
La suite (αλt) est solution de l’équation [8] si et seulement si
αλt + 2 + a1αλt + 1 + a0αλ = 0 ou, ce qui revient au même, si et
seulement si αλt(λ2 + a1λ + a0) = 0. Comme on suppose α ≠ 0 et
λ ≠ 0, on cherche donc λ tel que : λ2 + a1λ + a0 = 0. Le problème
se ramène ainsi à celui du calcul des racines du polynôme
λ2 + a1λ + a0, noté P(λ) et dit polynôme caractéristique de
l’équation [8].
Le discriminant de P(λ) est Δ = a1² – 4a0. Trois cas sont alors
possibles : Δ > 0, Δ < 0 et Δ = 0.

1er cas : Δ > 0. P(ּ) a deux racines réelles distinctes :


– a1 + Δ –a – Δ
μ1 = et μ2 = 1 .
2 2
Par conséquent α1μ1t et α2μ2t sont deux solutions de [8]. On peut
facilement vérifier (en remplaçant dans l’équation [8]) que la
suite (α1μ1t + α2μ2t) est également solution de cette équation.
Posons xt = α1μ1t + α2μ2t et montrons que l’on peut exprimer α et
α de façon unique en fonction des conditions initiales de la suite
(xt). Car, si c’est le cas, comme nous savons que, à chaque condi-
tion initiale, correspond une solution unique de l’équation [8],
nous saurons alors que nous avons trouvé cette solution.
11
Si xt = α1μ1t + α2μ2t, alors x0 = α1 + α2 et x1 = α1μ1 + α2μ2. Nous
sommes ici en présence d’un système de deux équations à deux
inconnues, α et α, ayant pour unique solution :
(α , α) = (xμ––μμx
1
1
2 0
2
;
μ1x0 – x1
μ1 – μ2 )
Ainsi, pour (x0 , x1) donné, la solution de l’équation [8] est :
x 1 – μ 2x 0 t μ 1x 0 – x 1 t
xt = μ + μ
μ1 – μ 2 1 μ1 – μ2 2

2ème cas : Δ < 0. P(ּ) a deux racines non réelles conjuguées (voir
encadré Les nombres complexes) :
– a1 + i – Δ –a –i –Δ
μ= et μ̄ = 1 .
2 2
Les suites (αμt) et (βμ̄t) sont donc solutions de l’équation [8], de
même que la suite (αμt + βμ̄t).
Posons (xt) = (αμt + βμ̄t) et essayons de voir, comme dans le cas
précédent, si l’on peut exprimer α et β de façon unique en fonction
des conditions initiales du processus (xt).
Si xt = αμt + βμ̄t, alors x0 = α + β et x1 = αμ + βμ̄, ce qui donne :
x1 – μ̄x0 μx0 – x1
(α , β) = ( , . )
μ – μ̄ μ – μ̄
Ainsi, pour (x0 , x1) donné, la solution de l’équation [8] est :
x1 – μ̄x0 t μx0 – x1 t
xt = μ+ μ̄
μ – μ̄ μ – μ̄

Remarque : si les conditions initiales sont réelles, alors α et β


sont conjugués et xt est réelle.

Les nombres complexes


Un nombre complexe est un nombre qui peut s’écrire sous la forme : a + ib, où
a IR, où b IR et où i est tel que i² = – 1.

12
On dit que a est la partie réelle du nombre complexe z = a + ib (on note a = (z)), et
que b est sa partie imaginaire (on note b = (z)).
L’ensemble des nombres complexes, noté C, muni de l’addition [(a + ib) + (a’ + ib’) =
(a + a’) + i(b + b’)] et de la multiplication [(a + ib)(a’ + ib’) = (aa’ – bb’) + i(a’b + ab’)]
est un corps* commutatif.

Caractérisation d’un nombre complexe par son module et son argument


On peut représenter z par le point Z dans le plan orthonormé suivant :

() Le point Z peut également être caractérisé par


la longueur OZ = a² + b² — appelée module
b Z de z, notée z et désignée par la lettre ρ —, et
par l’angle θ que fait 0Z avec l’axe des
i
abscisses — appelé argument de z et noté

arg z. Soit, comme, cos θ = a/ρ et sin θ = b/ρ,
0 a () a + ib = ρ(cos θ + i sin θ).
1

Exponentielle complexe
Comme (cos θ + i sin θ)(cos θ’ + i sin θ’) = cos (θ + θ’) + i sin (θ + θ’) (formule
trigonométrique), on adopte l’écriture conventionnelle : cos θ + i sin θ = eiθ, et on a :
eiθ eiθ’ = ei(θ + θ’). En particulier (eiθ)t = eitθ, ce qui résume l’égalité trigonométrique :
( cos θ + i sin θ)t = cos tθ + i sin tθ.

Conjugué d’un nombre complexe


Soit z = a + ib. Le nombre a – ib, et noté −z , est appelé complexe conjugué de z. Il
s’ensuit que : z + −z = 2a = 2(z), et que zz− = a² + b ² = ρ ². En outre, le conjugué d’une
somme est égal à la somme des conjugués, et le conjugué d’un produit est égal au
produit des conjugués. Posons, en effet, z = a + ib et z’ = a’ + ib’, on a alors :
z + z’ = (a + a’) + i(b + b’) = (a + a’) – i(b + b’) = (a – ib) + (a’– ib’) = −z + z−’.
¯¯¯¯

¯¯
zz’ = (aa’ – bb’) + i(a’b + ab’) z z−’.
= (aa’ – bb’) – i(a’b + ab’) = a’(a – ib) – ib’(a – ib) = −

Posons, en effet, μ = ρ( cos θ + i sin θ), où ρ = |μ| et θ = arg μ. On


x1 – ρ(cos θ – i sin θ)x0 x x ρ cos θ – x1
en déduit que α = = 0+i 0 , que
2ρi sin θ 2 2ρ sin θ

13
– x1 + ρ(cos θ + i sin θ)x0 x ρ cos θx0 – x1
β= = 0– i , et donc que β = ᾱ.
2ρi sin θ 2 2ρ sin θ
Ainsi, la solution de l’équation [8] est bien réelle puisque :
−−−
xt = αμ t + βμ̄ t = αμ t + ᾱμ̄ t = αμ t + αμt = 2(αμ t).
x0 x ρ cos θ – x1
En remplaçant, dans cette expression, α et μ par +i 0
2 2ρ sin θ
et ρ(cos θ + i sin θ) respectivement, on obtient ainsi la solution
réelle de l’équation [8], à savoir :
x1 – x0ρ cos θ
xt = ρ t (x0 cos tθ + )
sin tθ .
ρ sin θ

3ème cas : Δ = 0. P(ּ) a une racine réelle double : μ = – 1/2.


a

La méthode utilisée jusqu’à présent ne nous permet plus de


déterminer la solution de l’équation [8]. Car, si l’on pose (xt) = (αμt),
on ne pourra pas exprimer α de façon unique en fonction des
conditions initiales du processus (xt). Dans ce cas, en effet, α = x0 et
α = μ/x1.
Cependant, on peut montrer que si (μt) est solution de l’équation
[8], alors, d’une part, (tμt) est également solution de [8], et, d’autre
part, toute solution de l’équation [8] peut s’écrire sous la forme
d’une combinaison linéaire* unique de ces deux solutions.
En effet (tμt) est solution de [8] si et seulement si (t+2)μt + 2 +
a1(t + 1) μt + 1 + a0tμt = 0 donc si μt[(t + 2)μ2 + a1(t + 1)μ + a0t] = 0
ou encore si μt[tP(μ) + 2μ2 + a1μ] = 0. Ce qui est vrai puisque
P(μ) = 0 et 2μ2 + a1μ = 2[(– a1)²/2] + a1(– a1/2) = 0.
Or si xt = αμt + βtμt, alors x0 = α et x1 = αμ + βμ = (α + β)μ. On
est ici en présence d’un système de deux équations à deux
inconnues, α et β, ayant pour unique solution :
x1
(α , β) = (x0 , – x0 .
)
μ
Ainsi, pour (x0 , x1) donné, la solution de l’équation [8] est :
x
xt = x0μt + ( 1 – x0)tμt .
μ

14
Récapitulatif sur la résolution de l’équation
[8] xt+2 + a1xt+1 + a0xt = 0, avec a0 ≠ 0 pour (x0 , x1) donné

Polynôme caractéristique : avec ρ = |μ| et θ = arg μ, et où α et β sont


P(λ) = λ2 + a1λ + a0 solutions du système :
x0 1 0
1er cas : P(ּ) a deux racines réelles
distinctes μ1 et μ2. La solution est alors : () ( ) ( )
x1

ρ cos θ

ρ sin θ
.

xt = α1μ1t + α2μ2t ,
où α1 et α2 sont solutions du système : 3ème cas : P(ּ) a une racine réelle
x0 1 1 double μ. La solution est alors :

() ( ) ( )
x1
= α1
μ1
+ α2
μ2
xt = (α + βt) μt,

où α et β sont solutions du système :


2ème cas : P(ּ) a deux racines non réelles x0 1 0
μ et μ̄. La solution est alors :
xt = αρt cos tθ + βρt sin tθ,
( ) () ()
x1

μ

μ
.

□ Exemples

Exemple 1 — Soit l’équation d’ordre 2 :


[12] 6xt + 2 – xt + 1 – xt = 0.
Le polynôme caractéristique de cette équation est :
λ 1
P(λ) = λ2 – – .
6 6
Comme le discriminant de ce polynôme, Δ = ( – 1/6)2 – 4( – 1/6) = 25/36,
est positif, P(ּ) a deux racines réelles distinctes, qui sont ici – 1/3 et
1/ . La solution de l’équation [12] est donc de la forme :
2
xt = α1( – 1/3)t + α2(1/2)t, avec α1  IR et α2  IR.

Exemple 2 — Soit l’équation d’ordre 2 :


[13] xt + 2 + 2xt + 1 + 2xt = 0.
Le polynôme caractéristique de [13] est : P(λ) = λ2 + 2λ + 2.
Son discriminant réduit* — Δ’ = 1 – 2 = – 1 — étant négatif, P(ּ) a
deux racines complexes, – 1 + i et – 1 – i, dont le module est

( – 1)2 + 12 = 2. En outre, l’argument de – 1 + i est θ =
4

15
– 2
(puisque, si – 1 + i = 2(cos θ +i sin θ), alors cos θ = et
2
2
sin θ = ). La solution, pour des conditions initiales réelles, de
2
l’équation [13] est donc de la forme :
t 3πt t 3πt
xt = α2 /2 cos + β2 /2 sin , avec α  IR et β  IR.
4 4

Exemple 3 — Détermination de la trajectoire solution de l’équation :


[14] xt + 2 – 4xt + 1 + 4xt = 0, lorsque x0 = 1 et x1 = 0.
Le polynôme caractéristique de [14] est :
P(λ) = λ2 – 4λ + 4 = (λ – 2)2 ;
il a une racine réelle double, 2. La solution de l’équation [14] est
donc de la forme :
xt = α2t + βt2t.
Comme on connaît x0 et x1, on peut déterminer α et β. Ce sont les
 x0 = α2 + β(0)2
0 0
solutions du système  . D’où α = 1 et β = – 1.
 x1 = α2 + β(1)21
1

La solution de l’équation [14] lorsque x0 = 1 et x1 = 0 est donc :


xt = 2t – t2t = 2t(1 – t).

c) Équations homogènes d’ordre 3

Il s’agit d’équations du type :


[15] xt + 3 + a2xt + 2 + a1xt + 1 + a0xt = 0, avec a0 ≠ 0.
Tout se passe ici exactement de la même façon que pour les
équations homogènes d’ordre 2, à ceci près :
— que la condition initiale n’est pas un vecteur de IR2 mais de IR3 ;
— et que le polynôme caractéristique de l’équation [15] est un
polynôme de degré 3, P(λ) = λ3 + a2λ2 + a1λ + a0, et non de degré
2 ; il a donc, non pas deux, mais trois racines dans l’ensemble des
complexes.
Quatre cas sont donc ici possibles :
1er cas : P(ּ) a trois racines réelles distinctes, μ1, μ2 et μ3. Toute
solution de l’équation [15] est alors de la forme :
[16] xt = α1μ1t + α2μ2t + α3μ3t.

16
Si l’on connaît la condition initiale (x0, x1, x2), on peut alors
déterminer α1, α2 et α3 ; ce sont les solutions du système :
α1(1,μ1,μ1,2) + α2(1,μ2,μ2,2) + α3(1,μ3,μ3,2) = (x0,x1,x2)
obtenu en remplaçant t par 0, par 1, puis par 2 dans l’équation [16].
2ème cas : P(ּ) a une racine réelle, μ1, et une racine réelle double,
μ2. La solution de l’équation [15] est alors :
[17] xt = α1μ1t + (α2 + α3t)μ2t,
où α1, α2 et α3 sont solutions du système :
α1(1,μ1,μ1,2) + α2(1,μ2,μ2,2) + α3(0,μ2,2μ2,2) = (x0,x1,x2)
obtenu en remplaçant t par 0, par 1, puis par 2 dans l’équation [17].
3ème cas : P(ּ) a une racine réelle triple, μ1. La solution de
l’équation [15] est alors :
[18] xt = (α1 + α2t + α3t2)μ1t ,
où α1, α2 et α3 sont les solutions du système :
α1(1,μ1,μ1,2) + α2(0,μ1,2μ1,2) + α3(0,μ1,4μ1,2) = (x0,x1,x2)
obtenu en remplaçant t par 0, par 1, puis par 2 dans l’équation [18].
4ème cas : P(ּ) a une racine réelle, μ1, et deux racines non réelles, μ2
et μ,−. La solution réelle de l’équation [15] est alors :
[19] xt = α1μ1t + α2ρt cos tθ + α3ρt sin tθ, avec ρ = |μ2|, θ = arg μ2,
où α1, α2 et α3 sont les solutions du système :
α1(1,μ1,μ1,2) + α2(1, ρ cos θ,ρ2 cos 2θ) + α3(0, ρ sin θ,ρ2 sin 2θ)
= (x0,x1,x2)
obtenu en remplaçant t par 0, par 1, puis par 2 dans l’équation [19].

d) Équations homogènes d’ordre n

Il s’agit d’équations du type :


[6] xt + n + an – 1xt + n – 1 + … + aixt + i + … + a0xt = 0.
Tout se passe ici exactement de la même façon que pour les
équations homogènes d’ordre 2 et d’ordre 3, à ceci près :
— que la condition initiale est un vecteur de IRn ;
— que le polynôme caractéristique de l’équation [6] est un poly-
nôme de degré n, P(λ) = λn + an – 1λn – 1 + … + a1λ + a0 ; il a donc
n racines dans l’ensemble des complexes ;
— que, pour n > 3, P(ּ) peut avoir des racines complexes multiples.
Les solutions réelles de l’équation [6] sont donc des combinai-
sons linéaires de termes de la forme :
17
— μt si μ est une racine réelle simple de P(ּ) ;
— μt, tμt, t ²μt,…, t k – 1 μt si μ est une racine réelle multiple (et de
multiplicité algébrique* k) de P(ּ) ;
— ρt cos tθ et ρt sin tθ si ρ(cos θ + i sin θ) est une racine non réelle
simple de P(ּ) ;
— ρt cos tθ, tρt cos tθ, t ²ρt cos tθ,…, t k – 1ρt cos tθ et ρt sin tθ,
tρt sin tθ, t ²ρt sin tθ,…, t k – 1ρt sin tθ si ρ(cos θ + i sin θ ) est une
racine non réelle multiple (et de multiplicité algébrique k) de P(ּ).

B – Solution générale des équations avec second membre

Les équations avec second membre sont les équations du type :


[1] xt + n + an – 1xt + n – 1 + … + a0xt = f(t), avec a0 ≠ 0 et f)ּ) ≠ 0.
Dans cette section, nous traiterons le cas des équations d’ordre
3, le principe étant le même pour les équations d’ordre n, quel que
soit n  IN.
À l’ordre 3, l’équation [1] devient :
[1′] xt + 3 + a2xt + 2 + a1xt + 1 + a0xt = f(t).

a) Forme de la solution

On peut ici montrer que toute solution (xt) de l’équation [1′] est
de la forme (ht + pt), où (ht) est solution de l’équation homogène
associée à [1′] et où (pt) est une solution particulière de [1′]. En
effet, si (pt) est une solution particulière de [1′], on a :
[1″] pt + 3 + a2pt + 2 + a1pt + 1 + a0pt = f(t).
Or, par soustraction de [1″] à [1′], on obtient :
(xt + 3 – pt + 3) + a2(xt + 2 – pt + 2) + a1(xt + 1 – pt + 1) + a0(xt – pt) = 0.
La suite (xt – pt) est donc solution de l’équation homogène
associée à l’équation [1′]. Si l’on note (ht) cette solution, on a
(ht) = (xt – pt) et donc (xt) = (ht + pt).
On a vu, dans le paragraphe précédent, comment trouver la
solution de l’équation homogène associée à l’équation [1′]. Pour
déterminer (xt), il ne reste donc plus qu’à déterminer (pt).

18
b) Détermination d’une solution particulière

Si, en règle générale, on ne peut trouver de solution particulière


de l’équation [1′], cela est cependant possible lorsque f(t), le
second membre de [1′], est un polynôme, une exponentielle, un
sinus, un cosinus, ou une combinaison linéaire de polynômes,
d’exponentielles, de sinus et de cosinus. C’est alors la forme de
f(t) qui guide la recherche d’une solution particulière de [1′] : on
cherche, en effet, une solution particulière, (pt), ayant la même
forme que f(t), et on la détermine en remplaçant xt par pt dans [1′].

□ Exemples

Exemple 1 — Soit l’équation d’ordre 3 :


[20] xt + 3 + xt + 2 – 4xt + 1 – 4xt = c, où c est une constante non nulle.

Recherche de la solution de l’équation homogène associée à


l’équation [20]
Le polynôme caractéristique de cette équation est :
P(λ) = λ3 + λ2 – 4λ – 4.
Il a une racine évidente : – 1. On peut donc mettre (λ + 1) en
facteur ; il vient P(λ) = (λ + 1)(λ2 – 4) = (λ + 1)(λ – 2)(λ + 2) : les
trois racines de P(λ) sont – 1, 2 et – 2. La solution générale de
l’équation homogène associée à l’équation [20] est donc :
ht = α( – 1)t + α2t + α( – 2)t, avec αi  IR, i = 1, 2, 3.

Recherche d’une solution particulière de l’équation [20]


Le second membre de l’équation [20] étant une constante, on
cherche une solution particulière constante : on cherche donc la
valeur d’équilibre de cette équation, à savoir xe = Erreur !
= Erreur !.
Conclusion — la solution générale de l’équation [20] est :
c
xt = α( – 1)t + α2t + α( – 2)t – , avec αi  IR, i = 1, 2, 3.
6

De façon plus générale, lorsque le second membre de l’équation


est une constante c et lorsque P(1) ≠ 0, le processus a une unique
c
valeur d’équilibre, xe = /P(1), et la solution de l’équation est de la
forme : (xt) = (ht + xe).
19
Exemple 2 — Soit l’équation d’ordre 3 :
[21] xt + 3 + xt + 2 – 4xt + 1 – 4xt = 6t – 7.
Comme les équations [20] et [21] ont la même équation homo-
gène associée, il ne reste qu’à trouver une solution particulière de
l’équation [21]. Le second membre cette équation étant un poly-
nôme de degré 1, on pose pt = at + b. On a donc pt+1 = at + a + b,
pt+2 = at + 2a + b et pt + 3 = at + 3a + b. En remplaçant dans [21],
on obtient :
at + 3a + b + at + 2a + b – 4(at + a + b) – 4(at + b) = 6t – 7,
ou, ce qui revient au même : – 6at + a – 6b = 6t – 7. Ceci n’est
toujours vérifié (quel que soit t) que si :
{– 6a = 6,a – 6b = – 7 donc si a = – 1, b = 1. D’où la solution
particulière : pt = – t + 1. La solution générale de l’équation [21]
est donc :
xt = α( – 1)t + α2t + α( – 2)t – t + 1, avec αi  IR, i = 1, 2, 3.

Exemple 3 — Soit l’équation d’ordre 2 :


[22] 6xt + 2 – xt + 1 – xt = 3ּ2t.
La solution de l’équation homogène associée à l’équation [22]
est (comme on l’a vu dans l’exemple 1, page 15) :
ht = α1( – 1/3)t + α2(1/2)t, avec αi  IR, i = 1, 2.
Le second membre de l’équation [22] étant une fonction expo-
nentielle de base 2, on pose pt = a2t. On a donc pt + 1 = a2t + 1 et
pt + 2 = a2t + 2. En remplaçant dans [22], on obtient :
6a2t + 2 – a2t + 1 – a2t = 3ּ2t,
et donc, en divisant les deux membres de cette équation par 2t :
(24 – 2 – 1)a = 3.
1
D’où : a = et pt = Erreur !. La solution générale de [22] est
7
donc :
xt = α1( – 1/3)t +α2(1/2)t + 2 /7, avec αi  IR, i = 1, 2.
t

□ Problème de la résonance

Si, dans l’exemple précédent, on avait eu comme second membre,


non pas 3ּ2t, mais 3(1/2)t, on n’aurait pu poser pt = a(1/2)t. En effet,
1
/2 étant racine de P(λ), si pt = a(1/2)t, alors 6pt + 2 – pt + 1 – pt = 0, et non
20
6pt + 2 – pt + 1 – pt = 3(1/2)t. Autrement dit, comme 1/2 est racine de
P(λ), pt = a(1/2)t est solution de l’équation homogène associée à
l’équation [22] ; ce ne peut donc être une solution particulière de
l’équation :
[23] 6xt + 2 – xt + 1 – xt = 3(1/2)t.
Dans ce cas, dit de résonance, pour déterminer une solution
particulière de l’équation [23], on procède de la même façon que
lorsque l’on cherche la solution générale d’une équation
homogène dont le polynôme caractéristique a une racine double :
au lieu de poser pt = a(1/2)t, on pose pt = at(1/2)t. On a donc
pt + 1 = a(t + 1)(1/2)t + 1 et pt + 2 = a(t + 2)(1/2)t + 2. En remplaçant
dans l’équation [23], on obtient alors :
Erreur ! – Erreur ! – Erreur ! = Erreur ! ;
ou encore :
at Erreur ! + a Erreur ! = Erreur !.
D’où a = 6/5. La solution particulière est donc : pt = Erreur !
= Erreur ! et la solution générale :
xt = α1( – 1/3)t + α2(1/2)t + Erreur !, avec αi  IR, i = 1, 2.

Remarques :
— Si, dans le cas que nous venons de traiter, 1/2 avait été racine
t
double de P(λ), alors, on n’aurait pas posé pt = at(1/2) , mais
t
pt = at 2(1/2) . De façon plus générale, si l’équation [23] avait été
une équation d’ordre n, et si 1/2 avait été racine d’ordre p (p < n)
t
de P(λ), alors, on aurait posé pt = at p(1/2) .
— On a des cas de résonance :
• lorsque le second membre de l’équation est de la forme αλt, où λ
est racine du polynôme caractéristique de l’équation homogène
associée ;
• lorsque le second membre est de la forme α cos bt ou α sin bt, où
b est l’argument d’au moins une racine du polynôme caractéristi-
que de l’équation homogène associée ;
• lorsque le second membre de l’équation est un polynôme et 1,
racine du polynôme caractéristique de l’équation homogène asso-
ciée ; dans ce cas un peu particulier, on prend, comme solution

21
particulière, certes un polynôme, mais de degré égal à celui du
polynôme du second membre plus 1.

3. Équations de récurrence linéaires à coefficients


constants et stabilité

On va maintenant s’intéresser à la question de la convergence


des trajectoires décrites par des équations de récurrence linéaire à
coefficients constants, autrement dit à la question de leur stabilité.
Mais auparavant donnons quelques définitions.

A – Définitions

a) Stabilité globale d’un processus

Lorsque toutes les trajectoires décrites par une équation convergent,


on dit que le processus décrit par cette équation est globalement
stable. Autrement dit le processus décrit par une équation est
globalement stable si et seulement si, quelle que soit la condition
initiale, la solution de cette équation converge.

b) Stabilité globale d’une valeur d’équilibre

Si toutes les trajectoires convergent vers la même valeur


d’équilibre, xe, on dit que cette valeur d’équilibre est globalement
stable. Celle-ci est alors unique (en effet, s’il y avait une autre
valeur d’équilibre, xe′ , la trajectoire issue du vecteur de conditions
initiales (xe′ ,…, xe′ ) convergerait vers xe′ et non vers xe).
Remarque : dans le cas de processus décrits par des équations
homogènes, 0 est toujours valeur d’équilibre. Une condition
nécessaire pour que 0 soit globalement stable est donc qu’il soit
l’unique valeur d’équilibre du processus.

22
c) Ensemble de stabilité d’un équilibre

Si une valeur d’équilibre xe n’est pas globalement stable, certaines


trajectoires peuvent cependant converger vers elle. L’ensemble
des conditions initiales auxquelles correspondent ces trajectoires
est appelé ensemble de stabilité de xe. Si l’on note Sxe cet ensemble,
on a donc, dans le cas d’une équation d’ordre n :
Sxe = {X0  IRn / xt ⎯⎯→ xe}.
t→∞
Lorsque la dimension* de l’ensemble de stabilité d’un équilibre
Xe est égale à 1 (avec n > 1), on dit que l’équilibre Xe est un point-
selle1.

B – Conditions de stabilité lorsque l’on connaît les racines


du polynôme caractéristique de l’équation

Reprenons le processus défini par l’équation [1] :


[1] xt + n + an – 1xt + n – 1 + … + aixt + i + … + a0xt = f(t).
À chaque condition initiale correspond, on l’a vu, une unique
trajectoire solution de [1]. Il va de soi que, pour que cette trajec-
toire converge vers une valeur d’équilibre, il faut que cette valeur
d’équilibre existe. Or (cf. 1 B) ceci n’est le cas que si f(ּ) = c. Les
processus concernés par cette section sont donc ceux qui sont
définis par une équation du type :
[24] xt + n + an – 1xt + n – 1 + … + aixt + i + … + a0xt = c.
On étudiera ici séparément le cas des équations homogènes
(c = 0) et celui des équations non homogènes (c ≠ 0).

a) Cas des équations homogènes

Reprenons l’équation [6] :


[6] xt + n + an – 1xt + n – 1 + … + aixt + i + … + a0xt = 0.
Nous avons vu que, quelles que soient les racines de P(λ), la
solution réelle, xt, de cette équation est une combinaison linéaire

1 La notion de point-selle a été récemment remise à l’honneur en macroéconomie,


l’« axe » de la selle étant devenu une direction privilégiée pour le modélisateur.

23
de termes de la forme : λt, t kλt (k > 0), t kρ t cos tθ et t kρ t sin tθ
(k  0). Le comportement de xt dépend donc de celui de ces termes.

□ Comportement de λt lorsque t tend vers l’infini

Quatre cas sont ici possibles :


1er cas : λ > 1 et donc λt ⎯⎯→ + ∞.
t→∞
2ème cas : λ = 1 et donc λt = 1, quel que soit t  IN.
3ème cas : – 1 < λ < 1 et donc λt ⎯⎯→ 0.
t→∞
4ème cas : λ  – 1 et donc λt n’a pas de limite.
Réciproquement :
1er cas : si λt ⎯⎯→ + ∞, alors λ > 1. En effet, si λ n’est pas stricte-
t→∞
ment supérieur à 1 (voir les 2ème à 4ème cas ci-dessus), alors λt ne
tend pas vers + ∞.
2ème cas : si λt = 1, quel que soit t  IN, alors λ = 1. En effet, si λ
est différent de 1 (voir les 1er, 3ème et 4ème cas ci-dessus), alors λt
est également différent de 1.
3ème cas : si λt ⎯⎯→ 0, alors – 1 < λ < 1, puisque pour toutes les
t→∞
autres valeurs de λ (voir les 1er, 2ème et 4ème cas ci-dessus), λt ne
converge pas vers 0.
4ème cas : si λt n’a pas de limite, alors λ  – 1 puisque pour toutes
les autres valeurs de λ (voir les 1er à 3ème cas ci-dessus), λt
converge vers une limite (finie ou non).
Au total, λt converge vers 0 si et seulement si – 1 < λ < 1 (à
savoir si et seulement si λ < 1), égale 1 si et seulement si λ = 1, et
ne converge pas, du moins vers une limite finie, dans tous les
autres cas.

□ Comportement de t kλt (avec k > 0) lorsque t tend vers l’infini

t kλt est le produit d’une fonction puissance et d’une fonction


exponentielle. Comme, au voisinage de l’infini, la fonction expo-
nentielle « l’emporte » sur la fonction puissance, on a ici trois cas
(que l’on peut démontrer de la même façon que dans le paragraphe
précédent) :

24
1er cas : λ  1 si et seulement si t kλt ⎯⎯→ + ∞.
t→∞
2ème cas : – 1 < λ < 1 si et seulement si t kλt ⎯⎯→ 0.
t→∞
3ème cas : λ  – 1 si et seulement si t kλt n’a pas de limite lorsque
t → ∞.
Au total, t kλt converge vers 0 si et seulement si – 1 < λ < 1 (à
savoir si et seulement si λ < 1), et ne converge pas, du moins pas
vers une limite finie, dans tous les autres cas.

□ Comportement de t kρ t cos tθ et t kρ t sin tθ (k  0) lorsque t tend


vers l’infini

Rappelons que ρ est le module de λ, et θ, son argument.


Rappelons également que cosinus et sinus sont toujours compris
entre – 1 et 1. On a donc ici deux cas lorsque t tend vers l’infini :
1er cas : ρ < 1 si et seulement si t kρ t cos tθ et t kρ t sin tθ tendent
vers 0.
2nd cas : ρ  1 si et seulement si t kρ t cos tθ et t kρ t sin tθ n’ont pas
de limite.
Au total, t kρ t cos tθ et t kρ t sin tθ tendent vers 0 si et seulement si
ρ < 1, à savoir si et seulement si λ < 1, et ne convergent pas dans
tous les autres cas.

□ Comportement de xt lorsque t tend vers l’infini

Les cas de convergence (vers une limite finie) rencontrés dans


les trois paragraphes précédents sont peu nombreux. Et on peut les
résumer en deux propositions :
pour que t kλt, t kρ t cos tθ, et t kρ t sin tθ (k  0) convergent vers 0 il
faut et il suffit que λ < 1,
et
pour que λt converge vers 1, il faut et il suffit que λ = 1.
La solution générale de l’équation [6], xt, étant toujours une
combinaison linéaire de solutions de la forme t kλt, t kρ t cos tθ,
t kρ t sin tθ (k  0), avec ρ = λ et θ = argλ, on peut déduire des
deux propositions que nous venons d’établir une condition
nécessaire et suffisante de stabilité globale de la valeur d’équilibre 0

25
et une condi-tion nécessaire et suffisante de stabilité globale du
processus (xt).

□ Condition nécessaire et suffisante de stabilité globale de 0

La première proposition nous permet d’affirmer que :


quel que soit X0, xt ⎯⎯→ 0 si et seulement si toutes les racines du
t→∞
polynôme caractéristique de l’équation [6] sont en module stric-
tement inférieures à 1; dans ce cas, 0 est donc globalement stable.

Exemple — Soit le processus décrit par l’équation suivante :


[12] 6xt + 2 – xt + 1 – xt = 0.
Le polynôme caractéristique de cette équation a deux racines
réelles distinctes, – 1/3 et 1/2, strictement comprises entre – 1 et 1
(pour le calcul des racines, voir l’exercice 1, page 15). L’équilibre
xe = 0 est donc globalement stable.

□ Condition nécessaire et suffisante de stabilité globale du


processus (xt)

Reprenons l’équation [6] :


xt + n + an – 1xt + n – 1 + … + ai xt + i + … + a0xt = 0, avec a0 ≠ 0.
Si 0 est globalement stable, alors le processus décrit par cette
équation l’est aussi. Le processus peut toutefois être globalement
stable sans que 0 le soit. Ceci peut être le cas lorsque le processus
a plusieurs équilibres, c’est-à-dire lorsque 1 est racine du polynôme
caractéristique. Mais, pour que cela soit effectivement le cas, il
faut non seulement que 1 soit racine simple du polynôme caracté-
ristique, mais aussi que les modules des autres racines de ce
polynôme soient strictement inférieurs à 1.
Ce que l’on peut résumer comme suit :
le processus décrit par [6] est globalement stable si et seulement si
— 0 est globalement stable, ou
— toutes les racines du polynôme caractéristique de [6] sont en
module strictement inférieures à 1 sauf une qui est égale à 1.

Exemple — Soit le processus décrit par l’équation :


[25] 2xt + 2 – xt + 1 – xt = 0.

26
λ 1
Le polynôme caractéristique est ici : P(λ) = λ² – – . Il a pour
2 2
discriminant : Δ = 9/4 ; et donc pour racines : λ1 = – 1/2 et λ2 = 1.
Ainsi, la solution générale de l’équation [25] est :
t t
xt = α ( – 1/2) + β 1t = α ( – 1/2) + β , avec α  IR et β  IR.
Quelle que soit la condition initiale, elle converge (vers β qui
dépend, pour sa part, de la condition initiale).

□ Ensemble de stabilité d’une valeur d’équilibre : exemple

Si, dans l’exemple précédent, 0 n’est pas globalement stable, on


peut cependant déterminer son ensemble de stabilité. En effet,
comme on a :
t
xt = α ( – 1/2) + β,
il s’ensuit que, pour que xt tende vers 0, il faut et il suffit que β soit
nul. Les trajectoires qui convergent vers 0 sont donc de la forme :
t
(xt) = (α ( – 1/2) ) , α  IR.

Or, si xt = ( – 1/2) , alors   = α  – 1 . L’ensemble de stabilité


t x0 1
x1  /2
de 0 est donc ici :

S0 = α – 1 , α  IR.
 1 
  /2 
La dimension de cet ensemble étant égale à 1 ; on en conclut que
l’équilibre 0 est un point-selle.
Plus généralement, on peut montrer que la dimension de l’ensemble
de stabilité de 0 est égale au nombre de racines de P(ּ) dont le module
est strictement inférieur à 1.

b) Cas des équations non homogènes

Reprenons l’équation [24] :


[24] xt + n + an – 1xt + n – 1 + … + aixt + i + … + a0xt = c (c ≠ 0).
Notons tout d’abord que pour que (xt) tende vers une valeur
d’équilibre lorsque t tend vers l’infini, il faut que cet équilibre
existe. Or nous avons vu (en 1 B) que, lorsque c ≠ 0, ceci n’est le
cas que si P(1) ≠ 0. Le processus a donc un équilibre unique :

27
xe = c/P(1). Dans ce cas, « stabilité globale du processus » et
« stabilité globale de xe » sont des expressions synonymes.
Nous avons également vu (en 2 B b) que lorsque le second
membre de l’équation [1] est une constante, la solution de
l’équation est de la forme (xt) = (ht + xe). Dans ce cas (dont nous
verrons des exemples en 3 D) la stabilité de (xt) dépend donc de
celle de (ht) que nous avons étudiée au paragraphe précédent :
le processus et xe sont globalement stables si ht tend vers 0, quelle
que soit la condition initiale (autrement dit si toutes les racines de
P(ּ) sont en module strictement inférieures à 1).

C – Conditions de stabilité globale de 0 lorsque l’on ne


connaît pas les racines du polynôme caractéristique

Les conditions de stabilité que nous venons d’établir ne sont,


bien entendu, applicables que lorsque l’on connaît les racines de
P(ּ). Or cela n’est pas toujours le cas, surtout lorsque P(ּ) est de
degré supérieur ou égal à 3.
Il existe un certain nombre de critères permettant d’établir si les
racines de P(ּ) sont ou non en module strictement inférieures à 1,
et ce, sans déterminer ces racines. Ce sont quelques-uns de ces
critères que nous allons ici donner, en nous restreignant aux cas
des équations homogènes d’ordre 2 puis d’ordre 3.

a) Cas des équations homogènes d’ordre 2

Soit le processus décrit par l’équation [8] :


xt + 2 + a1xt + 1 + a0xt = 0 avec a0 ≠ 0.
Le polynôme caractéristique de [8] est : P(λ) = λ² + a1λ + a0.
Nous avons vu que les deux propositions « l’équilibre 0 est
globalement stable » et « les modules des racines de P(λ) sont
strictement inférieurs à 1 » sont équivalentes. Aussi, bien que la
question qui nous intéresse ici soit celle de la stabilité ou non de
l’équilibre 0, nous ne discuterons que des conditions pour que les
modules des racines de P(λ) soient strictement inférieurs à 1.

28
□ Conditions nécessaires de stabilité de 0

Pour que les modules des racines de P(λ) = λ2 + a1λ + a0 soient


strictement inférieurs à 1, il faut que l’on ait : |a1| < 2 et |a0| < 1.
En effet, si l’on note λ1 et λ2 les deux racines de P(λ), on a :
P(λ) = λ2 + a1λ + a0 = (λ – λ1) (λ – λ2).
Comme (λ – λ1)(λ – λ2) = λ2 – (λ1 + λ2)λ + λ1λ2, alors on a a0 = λ1λ2 et
– a1 = λ1+ λ2. Le résultat s’ensuit en remarquant que :
|λ1| < 1 et |λ2| < 1  |λ1 + λ2| < 2 et |λ1λ2| < 1
(car |λ1+λ2|  |λ1| + |λ2| et |λ1λ2| = |λ1| |λ2|).

□ Conditions nécessaires et suffisantes de stabilité de 0

Les modules des racines de P(λ) = λ2 + a1 λ + a0 sont strictement


inférieurs à 1 si et seulement si : P(1) > 0, P( – 1) > 0 et a0 < 1.

Démonstration de la condition nécessaire


La proposition « si les modules des racines de λ2 + a1λ + a0 sont
strictement inférieurs à 1, alors on a : a0 < 1 » vient d’être
démontrée. Reste donc à démontrer que, si les modules des racines
de P(λ) sont strictement inférieurs à 1, alors P(1) > 0 et P( – 1) > 0.
Si P(λ) n’a pas de racines réelles, alors il est positif (du signe de
son premier coefficient), et ce, quel que soit le réel λ. On a donc
en particulier P(1) > 0 et P( – 1) > 0.
Si, en revanche, les racines de P(λ) sont réelles, alors, ce poly-
nôme (dont le premier coefficient est positif) est lui-même positif
à l’extérieur des racines. Il s’ensuit que, si les racines de P(λ) sont
strictement comprises entre – 1 et 1, alors P(λ) est positif en – 1 et
en 1.

Démonstration de la condition suffisante


Si P(λ) a deux racines complexes ou une racine réelle double,
alors la condition |a0| < 1 suffit à assurer que ces racines sont en
module strictement inférieures à 1. Nous avons vu, en effet, que a0
était égal au produit des racines. Si donc P(λ) a deux racines
complexes, μ = α + iβ et μ̄ = α – iβ, le produit de ces racines est
α2 + β2. Et, comme μ = μ̄ = α2 + β2, on a bien |a0| < 1  μμ̄ < 1

29
 μ = μ̄ < 1. Il en est de même si P(λ) a une racine réelle double,
μ. Dans ce cas, en effet, a0 = μ2. On a donc bien |a0| < 1  μ < 1.
Cette condition ne suffit cependant pas lorsque P(λ) a deux
racines réelles distinctes μ1 et μ2. Supposons que μ2 > μ1.
Si P(1) > 0, alors 1 est à l’extérieur des racines (comme cela a
été signalé à propos de la condition nécessaire). Or 1 ne peut être
inférieur à μ1 (car alors |μ1μ2| > 1, ce qui est incompatible avec
l’hypothèse |a0| < 1) ; il est donc supérieur à μ2.
De même, si P( – 1) > 0, alors – 1 est à l’extérieur des racines.
Or il ne peut être supérieur à μ2 (car, par hypothèse, |μ1μ2| < 1) ; il
est donc inférieur à μ1.
Conclusion : P(1) > 0, P( – 1) > 0 et |a0| < 1  1 > μ2 > μ1> – 1.

b) Cas des équations homogènes d’ordre 3

On a des conditions similaires dans le cas des équations homo-


gènes d’ordre 3. On peut en effet démontrer (de façon similaire)
les deux conditions nécessaires suivantes :
si les modules des racines de P(λ) = λ3 + a2λ2 + a1λ + a0 sont
strictement inférieurs à 1, alors on a |a2| < 3 et |a0| < 1.
De même on peut démontrer la condition nécessaire et suffisante
suivante :
les modules des racines de P(λ) = λ3 + a2λ2 + a1λ + a0 sont stricte-
ment inférieurs à 1 si et seulement si on a :
P(1) > 0, P( – 1) < 0, a1 < 3 et 1 – a1 + a2a0 – a02 < 1.

D – Applications

a) Le tâtonnement séquentiel

On suppose que les fonctions d’offre et de demande, notées


respectivement s(ּ) et d(ּ), sont de la forme :
d(pt) = a – bּpt (demande),
s(pt) = cּpt – d (offre),
où a, b, c et d sont des réels strictement positifs, et où t  IN.

30
On suppose également que le processus de tâtonnement est de la
forme :
[26] pt + 1 – pt = k[d(pt) – s(pt)] (k > 0).
Ce processus est donc décrit par l’équation de récurrence :
[27] pt + 1 + [k(b + c) – 1]pt = k(a + d),
obtenue en remplaçant, dans l’équation [26], d(pt) et s(pt) par
a – bּpt et cּpt – d respectivement.

□ Détermination du prix d’équilibre

Le prix d’équilibre, pe, vérifie pe + [k(b + c) – 1]pe = k(a + d).


a+d
On a donc : pe = .
b+c

□ Résolution de l’équation

Le second membre de l’équation [27] étant une constante, sa


solution générale est de la forme : pt = ht + pe, où (ht) est la suite
solution de son équation homogène associée, à savoir l’équation :
[28] pt + 1 + [k(b + c) – 1]pt = 0.
Le polynôme caractéristique de [28], P(λ) = λ + k(b + c) – 1, a
pour unique racine : λ = 1 – k(b + c). D’où ht = α[1 – k(b + c)]t,
avec α  IR. La solution générale de [27] est donc :
a+d
pt = α[1 – k(b + c)]t + .
b+c

□ Étude de la stabilité du processus et du prix d’équilibre

Comme pt = ht + pe, pt tend vers pe quand t tend vers l’infini si


et seulement si ht tend vers 0 quand t tend vers l’infini. Étudier la
stabilité globale de l’équilibre pe du processus décrit par l’équation
[27] revient donc à étudier celle de l’équilibre 0 du processus
décrit par l’équation [28]. Comme, en outre, le processus a un
unique prix d’équilibre, pe, « stabilité globale du processus » et
« stabilité globale de pe » sont des expressions synonymes.
Conclusion : le tâtonnement et le prix d’équilibre pe sont
globalement stables si et seulement si |1 – k(b + c)| < 1, autrement
dit si et seulement si 2/k > b + c (car on a supposé k, b et c stricte-

31
ment positifs). Pour que le tâtonnement soit globalement stable, il
ne suffit pas (comme dans le cas du tâtonnement continu étudié
pages 74-75) que les pentes des courbes d’offre et de demande
soient positive pour la première et négative pour la seconde ; il
faut en outre que la constante k soit choisie de façon à ce que la
somme des valeurs absolues de ces pentes soit strictement
inférieure à 2/k.

b) Le cobweb

On suppose que la demande d’un bien à l’instant t est fonction


du seul prix de ce bien au même instant, pt, et que cette fonction
de demande, d(ּ), est définie par :
d(pt) = a – bpt, où a et b sont des réels strictement positifs.
On suppose en outre que l’offre de ce bien à l’instant t est
décidée par le producteur en t – 1 en fonction du prix que celui-ci
anticipe, pta, et que cette fonction d’offre, s(ּ), est définie par :
s(pt) = cpta – d, où c et d sont des réels strictement positifs.
On suppose enfin que les anticipations sont statiques, autrement
dit que le producteur anticipe que le prix du bien en t sera égal à
son prix au moment où il prend sa décision, à savoir en t – 1. On a
donc : pta = pt – 1.

□ Équation de récurrence du prix du bien

À l’équilibre (temporaire), on a a – bpt = cpta – d. Si les antici-


pations sont statiques, l’évolution du prix du bien est donc décrite
par l’équation d’ordre 1 :
[29] bpt + cpt – 1 = a + d.

□ Équilibre et stabilité

Le prix d’équilibre, pe, est la solution de : bpe + cpe = a + d.


a+d
D’où pe = .
b+c
Comme dans le cas précédent, le second membre de l’équation
de récurrence est ici une constante. La solution générale de l’équation

32
[29] est donc de la forme : pt = ht + pe, où (ht) est la suite solution
de son équation homogène associée, c’est-à-dire l’équation :
bpt + cpt – 1 = 0,
dont le polynôme caractéristique est :
c
P(λ) = λ + .
b
L’unique racine de ce polynôme étant –
c
/b, on en conclut que le
a+d c
prix pt converge vers si et seulement si /b < 1, autrement dit
b+c
si et seulement si c < b (la pente de la courbe de demande est
supérieure en valeur absolue à celle de la courbe d’offre1).

c) Prix d’un titre et anticipations

Soit une action dont le prix en t est pt, soit d le dividende qu’elle
rapporte à chaque période, et soit i le taux d’actualisation (avec
0 < i < 1). Par arbitrage, on a :
[30] pt = Erreur ! + Erreur ! ,
où pt a+ 1 est le prix, anticipé en t, de l’action en t + 1.
Le prix d’équilibre, pe, vérifie ici l’équation : Erreur ! +
d
Erreur ! = pe. On a donc : pe = /i.

Comme
1
i
= ,
t=1
, ΣErreur ! (somme des termes d’une
progression géométrique de raison Erreur !), on a : Erreur !

= ,
t=1
, ΣErreur !. Le prix d’équilibre de l’action est donc égal à
la somme actualisée des dividendes qu’elle rapportera à son
détenteur (lorsque l’horizon est infini), autrement dit à la valeur
fondamentale de cette action.
La trajectoire de pt dépend évidemment de la forme des antici-
pations retenue. La question de la stabilité du prix d’équilibre pe
appelle notamment (comme nous allons ici le voir) des réponses

1 À titre indicatif, la solution de [29] est p = α Erreur ! t + Erreur !, α  IR.


t ( )
33
radicalement différentes lorsque les anticipations sont adaptatives
et lorsque les prévisions sont parfaites.

□ Anticipations adaptatives

Les anticipations sont dites adaptatives1 lorsqu’elles vérifient


l’équation :
[31] pt a+ 1 – pta = δ (pt – pat ), avec 0 < δ < 1.
De [30], on déduit pt a+ 1 = (1 + i)pt – d, et donc pat = (1 + i)pt – 1 – d.
En remplaçant dans [31], on obtient alors l’équation de récurrence
du prix de l’action :
[32] (1 + i – δ)pt + (1 + i)(δ – 1)pt – 1 = δd.
C’est une équation de récurrence d’ordre 1 dont la solution est :
d
pt = αμt + pe, avec pe = et μ = Erreur ! (c’est l’unique racine du
i
polynôme caractéristique de l’équation homogène associée à [32]).
De μ = Erreur !, on déduit μ = 1 – Erreur ! = 1 – β, avec
β = Erreur !. Comme 0 < δ < 1, on a 1/δ > 1 et donc 1
/δ –
1 > 0. Comme, en outre, 0 < i < 1, on a 0 < β < 1 et donc
0 < μ < 1. Le prix pt de l’action converge donc vers sa valeur
d
fondamentale /i, et ce, quelle que soit la condition initiale p0.

□ Prévisions parfaites (ou « anticipations rationnelles »)

Il n’en est pas de même lorsque les prévisions sont parfaites, à


savoir lorsque le prix anticipé est le prix qui prévaudra effective-
ment : pt a+ 1 = pt + 1.
En remplaçant, dans [30], pt a+ 1 par pt + 1, on obtient en effet
l’équation de récurrence linéaire d’ordre 1 :
[33] – pt+1 + (1 + i)pt = d,
dont la solution est :
d
pt = α(1 + i)t + /i .

1 On parle ici d’anticipation adaptative car l’anticipation faite en t, p a , prend en


t+1
compte l’erreur d’anticipation faite à la période précédente (autrement dit la
différence, en t, entre le prix du titre, pt, et l’anticipation qui en a été faite, pta).

34
d
Comme 1 + i > 1, pt converge (vers /i) à la seule condition que
α = 0 : la seule trajectoire qui converge est celle dont la condition
d
initiale est p0 = /i (dans ce cas, le prix de l’action est constamment
d
égal à sa valeur fondamentale, /i). Dans tous les autres cas (pour
toutes les autres valeurs de α), le prix du titre augmente de façon
exponentielle — on est en présence d’une bulle rationnelle.

d) L’oscillateur de Samuelson

Soit une économie dans laquelle la consommation à la période t,


notée Ct, dépend du revenu en t – 1, noté Yt – 1, dans la relation :
Ct = cYt – 1
où la propension marginale à consommer, c, est strictement comprise
entre 0 et 1.
Le revenu national à la période t, Yt, se décompose en :
Yt = Ct + It + G
où It désigne l’investissement à la période t, et où G, la consom-
mation des administrations, est supposée constante.
L’investissement à la période t est supposé dépendre de la varia-
tion de la consommation, selon la relation dite de l’accélérateur :
It = h(Ct – Ct – 1)
où le paramètre h est strictement compris entre 0 et 1.
Cet ensemble d’hypothèses permet de déterminer l’évolution du
revenu (ainsi que celles de la consommation et de l’investissement).

□ Équation de récurrence du revenu

Yt = Ct + It + G = cYt – 1 + h(Ct – Ct – 1) + G.
D’où Yt = cYt – 1 + hc(Yt – 1 – Yt – 2) + G.
L’équation de récurrence vérifiée par le revenu est donc :
[34] Yt – c(1 + h)Yt – 1 + hcYt – 2 = G.
C’est une équation d’ordre 2 dont le second membre est une
constante.

□ Équilibre et stabilité

Le revenu national d’équilibre, Ye, est solution de l’équation :

35
Ye – c(1 + h)Ye + hcYe = G.
G G
D’où Ye = /[1 – c(1 + h) + hc] = /(1 – c). La solution de l’équation
[34] est donc de la forme :
G
Yt = ht + /(1 – c),
où ht est la solution générale de son équation homogène associée,
à savoir l’équation :
Yt – c(1 + h)Yt – 1 + hcYt – 2 = 0,
dont le polynôme caractéristique est :
P(λ) = λ2 – c(1 + h)λ + hc.
Les modules des racines de ce polynôme sont strictement inférieurs
à 1 si et seulement si : P(1) > 0, P( – 1) > 0 et |hc| < 1.
Les deux premières conditions sont toujours vérifiées. En effet :
P(1) = 1 – c(1 + h) + hc = 1 – c > 0, car c est inférieur à 1 ; et
P( – 1) = 1 + c(1 + h) + hc = 1 + c + 2ch > 0, car c et h sont strictement
positifs.
G
Conclusion : l’équilibre Ye = /(1 – c) est globalement stable si et
seulement si |hc| < 1 ou encore si et seulement si h < 1/c.

36
II Systèmes de n équations de récurrence linéaires
d’ordre 1 à coefficients constants

Les systèmes de n équations de récurrence linéaires d’ordre 1 à


coefficients constants sont des systèmes du type :
x1t + 1 = a11x1t + … + a1jxjt + … + a1nxnt + f1(t),
xit + 1 = ai1x1t + … + aijxjt + … + ainxnt + fi(t)
[1]  
 xnt + 1 = an1x1t + … + anjxjt + … + annxnt + fn(t)

ou, en adoptant l’écriture matricielle :


[1] Xt + 1 = AXt + F(t)

x1t

f1(t)
 
où Xt =  xjt  et F(t) =  fi(t)  (fi(ּ) étant une fonction de IN dans
   
xnt fn(t)
IR), et où A est une matrice carrée* d’ordre* n, dont les éléments
sont les coefficients aij, avec aij  IR, i = 1,…, n et j = 1,…, n.
L’inconnue de ce système est la suite {X0, X1, X2,…}, notée (Xt),
A et F(t) étant données (t  IN). On parle ici de système d’ordre 1
car tout terme de la suite dépend du seul terme précédent. Ainsi,
pour connaître n’importe quel terme de la suite (Xt), il suffit d’en
connaître le premier, X0, que l’on appelle, pour cette raison, la
condition initiale du processus. On peut en outre montrer que, à
chaque condition initiale X0, correspond une suite unique solution
du système [1] : la connaissance de X0 permet en effet de détermi-
ner X1 sans ambiguïté, puisque X1 = AX0 + F(0) ; celle de X1
permet de déterminer X2 sans ambiguïté, puisque X2 = AX1 + F(1),
et ainsi de suite (par récurrence).
Nous traiterons ici essentiellement des systèmes homogènes, à
savoir des systèmes du type :
[2] Xt + 1 = AXt.
Remarque : n’importe quelle équation de récurrence linéaire
d’ordre n peut s’écrire sous la forme d’un système linéaire de n

37
équations d’ordre 1. Ainsi, dans le cas où n = 2, autrement dit dans
le cas d’une équation du type : xt + 2 = – a1xt + 1 – a0xt, si l’on pose
Xt =   xt + 2
xt + 1
 xt , et donc Xt + 1 = xt + 1, l’équation est équivalente au
– a1 – a0
système Xt + 1 = AXt, avec A =  
 1 0 . De façon plus géné-
rale, l’équation d’ordre n : xt + n + an – 1xt + n – 1 + … + a0xt = 0, peut
s’écrire sous la forme Xt + 1 = AXt,
– an – 1 – an – 2 … – a1 – a0
 1 0 … 0 0  xt +n – 1
avec A =  0 1 … 0 0  et Xt =  xt + 1 .
 
 
0

0 …

1 0

  xt 

1. Détermination des équilibres

Les équilibres du processus décrit par l’équation [2] sont les


suites (ou trajectoires) stationnaires (Xe), où Xe — que l’on
appellera vecteur d’équilibre ou tout simplement équilibre s’il n’y
a pas d’ambiguïté — est tel que Xe = AXe, autrement dit tel que

(A – I)Xe = 0 .
→ →
Il est clair que Xe = 0 est solution de l’équation (A – I)Xe = 0 , et
ce, quel que soit A. C’est donc un vecteur d’équilibre. Reste à
savoir s’il est ou non unique.

1er cas : Xe = 0 est l’unique vecteur d’équilibre du processus
décrit par l’équation [2].
C’est le cas si et seulement si le rang* de la matrice A – I est
égal à n (donc si cette matrice est régulière*) à savoir si et seule-
ment si son déterminant n’est pas nul (voir encadré Déterminant
d’une matrice carrée).

38
Déterminant d’une matrice carrée
Le déterminant d’une matrice carrée A
a 
a11 a12 a13

a 
est une fonction qui associe à cette Le déterminant de M = 21 a22 a23
dernière un nombre réel (appelé aussi 31 a32 a33
déterminant de A et noté dét(A) ou |A|) est :
et qui a les propriétés suivantes : a11dét(M11) – a21dét(M21) + a31dét(M31),
P1 — le déterminant est une forme où Mij est la matrice obtenue en suppri-
multilinéaire : si l’on remplace une mant la ième ligne et la jème colonne de M.
colonne quelconque Ci de A par une Cette dernière expression est le déve-
combinaison linéaire de la forme loppement du déterminant de M suivant
αCi’ + βCi’’, où Ci’ et Ci’’ ont le même les termes de sa première colonne. Mais
format* que Ci, alors le déterminant de on peut développer ce déterminant
la nouvelle matrice est égal à la combi- suivant n’importe quelle colonne ou ligne
naison linéaire, de coefficients α et β, de M. Par exemple, le développement
des déterminants des matrices obtenues suivant sa deuxième ligne est :
en remplaçant Ci par Ci’ et Ci’’, respec- – a21dét(M21) + a22dét(M22) – a23dét(M23).
tivement ; On remarque ici que les signes de ce
P2 — le déterminant est une forme développement sont alternés par rapport
alternée : si l’on permute deux colonnes à ceux du développement précédent ; ceci
(ou lignes) de A, son déterminant est une conséquence de la propriété P2.
change de signe ;
P3 — le déterminant de la matrice Plus généralement, le développement du
identité* est égal à 1. déterminant de la matrice M = (aij)
d’ordre n suivant sa jème colonne est :
De ces propriétés, on déduit que : i=n
1. dét(AB) = dét(A)  dét(B) = dét(BA). ( – 1)i + jaijdét(Mij).
i=1
2. Le déterminant d’une matrice ne
varie pas si l’on ajoute, à l’une de ses A1 A2
colonnes (lignes), une combinaison
linéaire de ses autres colonnes (lignes).
5. dét
( )
0 A3
= dét A1  dét A3

3. Le déterminant d’une matrice est nul A1 0


si et seulement si les colonnes (ou les
lignes) de cette matrice sont linéaire-
et dét
( )
A2 A3
= dét A1  dét A3

où A1 et A3 sont des matrices carrées


ment dépendantes*. (mais pas forcément A2 et 0).
4. Le déterminant de la matrice 6. Le déterminant d’une matrice trian-
a11 a12
( a21 a22 ) est : a11a22 – a21a12.
gulaire* est égal au produit des termes
situés sur sa diagonale principale*.

Exemple — Soit le processus décrit par l’équation [3] :

Xt + 1 = AXt, avec A =  
1 1
[3]
 2 0 .

39
Comme dét(A – I) = dét  = 0( – 1) – 2(1) = – 2 ( ≠ 0), le
0 1

2 – 1

seul vecteur d’équilibre de ce processus est Xe = 0 .

2nd cas : Xe = 0 n’est pas l’unique vecteur d’équilibre du processus
décrit par l’équation [2].
C’est le cas si et seulement si dét(A – I) = 0, donc si et seulement
si 1 est valeur propre de A (voir encadré Valeurs propres, vecteurs
propres, sous-espaces propres). Dans ce cas, l’ensemble des vecteurs
d’équilibre est le sous-espace propre de A associé à 1 (encore noté
ker(A – I)).

Valeurs propres, vecteurs propres, sous-espaces propres


Soit M une matrice carrée d’ordre n. 2. Deux matrices semblables* ont les
λi est une valeur propre de M si et mêmes valeurs propres.
seulement si il existe au moins un vecteur 3. Comme, d’une part, deux matrices

Pi, Pi ≠ 0 , tel que MPi = λiPi, donc tel semblables ont la même trace*, et,
→ d’autre part, il existe toujours une
que (M – λiI)Pi = 0 où I est la matrice
matrice triangulaire T semblable à une
identité.
→ → matrice carrée M quelconque, on déduit
Comme Pi ≠ 0 , (M – λiI)Pi = 0 si et des deux remarques précédentes que la
seulement si dét(M – λiI) = 0. La matrice trace d’une matrice est égale à la
M étant d’ordre n, ce polynôme, dit somme de ses valeurs propres.
polynôme caractéristique, est de degré 4. Deux matrices semblables ayant le
n. Il a donc n racines (pas forcément même déterminant et le déterminant
distinctes) dans l’ensemble des com- d’une matrice triangulaire étant égal au
plexes : les valeurs propres de M. produit des termes situés sur sa diagonale
L’ensemble des vecteurs Pi tels que principale, on déduit de ce qui précède
MPi = λiPi est appelé sous-espace propre que le déterminant d’une matrice est égal
de M associé à la valeur propre λi, au produit de ses valeurs propres.
chacun de ses éléments étant un vecteur 5. La dimension du sous-espace propre
propre de M associé à λi. de M associé à λi est égale à :
n – rang(M – λiI).
Remarques : 6. La dimension du sous-espace propre
1. Les valeurs propres d’une matrice de M associé à λi est comprise entre 1 et
triangulaire sont les termes situés sur sa la multiplicité algébrique de λi.
diagonale principale.

Exemple — Soit le processus décrit par l’équation [4] :


2 –2
Xt + 1 = AXt, avec A =  
[4]
 1 – 1 .
40
1 –2
Comme dét(A – I) = dét  = 0, alors 1 est valeur propre de
1
–2
A et l’ensemble E des équilibres du processus décrit par [3] est le
sous-espace propre de A associé à 1. La seconde valeur propre de
A étant 0 (puisque tr(A) = 1), on en déduit que 1 est valeur propre
simple de A et, en conséquence, que la dimension de E est égale à
un. L’ensemble E est donc de la forme : E = {αXe, α  IR}, où Xe
est un vecteur propre de A associé à 1.
Les deux colonnes de la matrice A – I, notées respectivement C1

et C2, étant telles que 2C1 + C2 = 0 , on en déduit (voir encadré
Produit d’une matrice par un vecteur colonne) que   est un
2
1
vecteur propre de A associé à 1.
Conclusion : E = α , α  IR.
 2 
 1 

Produit d’une matrice par un vecteur colonne


Soit la matrice M = (C1 … Cn), où Ci Exemple :
est la ième colonne de M, et le vecteur le produit de la matrice

   
x1 0 1 0
colonne X =  .
 xn
M=
 
0 1 0
2 1 –2
Alors on a :

1
n

par le vecteur X = 0 est :
MX = x1C1 + … + xnCn = xiCi . 1

      = 0.
1 0 1 0 0

      0
MX = 1 0 + 0 1 + 1 0
2 1 –2

2. Résolution

De Xt + 1 = AXt, on déduit X1 = AX0, X2 = AX1 = A2X0, et, par


récurrence, Xt = AtX0. La solution de l’équation [2], pour X0
donné, est donc :
Xt = AtX0.

41
Toute la difficulté, pour trouver cette solution, réside donc dans
le calcul de At. Nous distinguerons ici deux cas : le cas où A est
diagonalisable (voir encadré Matrice diagonalisable) et celui où
elle ne l’est pas.

Matrice diagonalisable
Une matrice carrée, M, d’ordre n est D, d’où l’expression « matrice diagona-
diagonalisable si et seulement si elle a n lisable ».
vecteurs propres linéairement indépen-
dants*. Remarques :
Si tel est le cas, il découle de 1. Une condition nécessaire et suffisante
l’équation MPi = λiPi, i = 1,…, n, que pour qu’une matrice soit diagonalisable
l’on a MP = PD, où D est une matrice est que la dimension de chacun de ses
diagonale* des n valeurs propres λ1 ..., λn sous-espaces propres soit égale à la
de A, et où P = (P1 … Pn), P1,…, Pi,…, Pn multiplicité algébrique de la valeur
étant n vecteurs propres de A linéaire- propre à laquelle il est associé.
ment indépendants associés respective- 2. Si les valeurs propres de la matrice
ment à λ1,…, λn. P est régulière donc sont distinctes deux à deux alors la
inversible*. De MP = PD, on déduit condition 1 est remplie.
donc M = PDP – 1 : M est semblable à

A – Cas où la matrice A est diagonalisable

a) Forme de la solution

Si A est diagonalisable, alors A = PDP – 1, où D est une matrice


diagonale formée des n valeurs propres de A, et P, la matrice des
vecteurs propres correspondante (voir encadré Matrice diagonali-
sable). Comme At = (PDP – 1) … (PDP – 1) = PDtP – 1, la solution
de l’équation [2] est Xt = PDtP – 1X0, autrement dit, de façon plus
détaillée :
 λ1  0  α1
t

Xt = (P1 … Pn) 
α1
   ; avec    = P – 1X0,
0 λtn  αn αn
ou, ce qui revient au même,

42
 α1λ1 
t

Xt = (P1 ... Pn)    = αλ1tP1 + … + αnλntPn.


 αnλnt
La solution de l’équation [2] est donc, dans ce cas :
n
Xt = Σα λ P ,
i=1
t
i i i

les coefficients αi étant obtenus en faisant le produit P – 1X0, ou, ce


n
qui revient au même, en résolvant le système X0 = Σα P
i=1
i i (que
l’on obtient en remplaçant t par 0 dans la solution de [2]).
Remarque : si X0 et A sont à éléments réels, il en va alors de
même pour la solution de l’équation [2] — puisque Xt = AtX0 —,
et ce, même si la matrice A a des valeurs propres non réelles.

b) Forme de la solution réelle lorsque A a des valeurs propres


non réelles

Supposons que A ait une valeur propre non réelle λ à laquelle


−− −−
correspond un vecteur propre P1. Alors les conjugués λ1 et P1 sont
respectivement valeur et vecteur propres de A. En effet, celle-ci
étant à éléments réels, on a :
−−− −−− −− −− −− −− −− −− −−
AP1 = λP1  AP1 = λ1P1  A P1 = λ1 P1  AP1 = λ1 P1.
La solution de [2] peut donc s’écrire :
n
−− −−
Xt = α1λt1P1 + α2 λ1t P1 + αiλitPi,Σ
i=3
α1 et α2 étant eux-mêmes conjugués.
n
−−
Pour t = 0, on a en effet : X0 = α1P1 + α2P1+ Σα P
i=3
i i [5]
n
−− −− −−
et donc X0 = α−−
1 P1 + α2 P1+ Σ α−−−
i=3
P , ou, ce qui revient au même
i 1

n
−−
(puisque X0  IRn), X0 = α−− −−
1 P1 + α2 P1+ Σ α−−−
i=3
P i 1 [6].

43
D’où, par soustraction de l’équation [6] à l’équation [5] :
n
−−

Σ
0 = (α1 – α−−2) P1 + (α2 – α−−1)P1 + (αiPi – α−−−
i=3
iP1),

ce qui implique (les Pi étant linéairement indépendants, i = 1,…, n)


que α1 = α−−2 et α2 = α−−1. On peut donc écrire Xt comme suit :
n
−− −−
Σ
Xt = α1λ1tP1 + α−−1 λ1t P1 + αiλitPi,
i=3
ce qui donne, en posant α1 = α + iβ, λ1 = ρ(cos θ + i sin θ), et
P1 = P1′ + iP″1 :
n
Xt = 2ρt[(α cos tθ – β sin tθ)P1′ – (β cos tθ + α sin tθ)P″1 ] + Σα λ P .
i=3
t
i i i

c) Exemples

Exemple 1 — Soit la trajectoire définie par :

Xt + 1 = AXt, avec A =  0 2 0 et X0 = 1.


1 1 0 0
[7]
 2 1 – 1 2
Les valeurs propres de A sont les racines de l’équation :
dét(A – λI) = 0.
1–λ
Or dét(A – λI) =  0 0  = (2 – λ)( – 1 – λ)(1 – λ). La
1 0
2– λ
 2 1 –1 – λ 
matrice A a donc pour valeurs propres 1, 2 et – 1. Comme celles-
ci sont distinctes, la matrice A est diagonalisable.
Les vecteurs propres de A associés à 1 sont les vecteurs P tels

que (A – I)P = 0 . Or A – I =  0 1 0. Les trois colonnes de


0 1 0

 2 1 – 2
cette matrice, notées respectivement C1, C2 et C3, étant telles que

1C1 + 0C2 + 1C3 = 0 , on en déduit que 0 est un vecteur propre


1

1
de A associé à 1.
Les vecteurs propres de A associés à 2 sont les vecteurs P tels
–1 1 0
que (A – 2I)P = 0 . Or A – 2I =  0 0 0. Les trois colonnes

 2 1 – 3

44
de A – 2I, notées respectivement C1, C2 et C3, étant telles que

1C1 + 1C2 + 1C3 = 0 , on en déduit que 1 est un vecteur propre


1

1
de A associé à 2.
Les vecteurs propres de A associés à – 1 sont les vecteurs P tels

que (A + I)P = 0 . Or A + I =  0 3 0 . Les trois colonnes de


2 1 0

2 1 0
A + I, notées respectivement C1, C2 et C3, étant telles que

0C1 + 0C2 + 1C3 = 0 , on en déduit que 0est un vecteur propre de


0

1
A associé à – 1.
La solution de l’équation [7] est donc de la forme :

Xt = α10 + α22t 1 + α3( – 1)t 0.


1 1 0

1 1 1


Lorsque la condition initiale est donnée par le vecteur 10,
2
alors (α1 , α2 , α3) = ( – 1 , 1 , 2) est l’unique solution du système
01 = α110 + α211 + α300 et donc Xt = – 10 + 2t 11 + 2( – 1)t00,
2 1 1 1 1 1 1
l’unique trajectoire solution de l’équation [7].

Exemple 2 — Soit le processus décrit par :

Xt + 1 = AXt, avec A =  – 1 0 0 .
2 2 0
[8]
 2 1 –1 
Les valeurs propres de A sont les racines de l’équation :
dét(A – λI) = 0.

Or  2––1λ 2
–λ
0
0 = ( – 1 – λ)(λ2 – 2λ + 2). Le discriminant
 2 1 –1–λ 
réduit de λ2 – 2λ + 2 est Δ’ = – 1 = i2. La matrice A a donc une valeur
propre réelle, – 1, et deux valeurs propres non réelles, 1 + i et 1 – i,

45
dont le module est 12 + 12 = 2. En outre, l’argument de 1 + i
π 2
est θ = /4 (si 1 + i = 2 (cos θ + i sin θ), alors cos θ = sin θ = ).
2
Les vecteurs propres de A associés à – 1 sont les vecteurs P tels

que (A + I)P = 0 . Or A + I =  – 1 1 0 . Les trois colonnes de


3 2 0

 2 1 0
cette matrice, notées respectivement C1, C2 et C3, étant telles que

0C1 + 0C2 + 1C3 = 0 , on en déduit que 0 est un vecteur propre


0

1
de A associé à – 1.
Les vecteurs propres de A associés à 1 + i sont les vecteurs P
1–i
tels que [A – (1 + i)I]P = 0 . Or A – (1 + i)I =  – 1 – 1 – i 0 .
2 0

 2 1 – 2 – i
→ x
De [A – (1 + i)I]P = 0 , en posant P = y , il vient :
 z
 (1 – i)x + 2y = 0 x = – (1 + i)y
 x + (1 + i)y = 0 , et donc z = – 4 + 3iy
 2x + y – (2 + i)z = 0  5
 – 11– i 
On en déduit que  4 + 3i est un vecteur propre de A associé à
– 5 
 – 11+ i 
1 + i, et, en conséquence, que – 4 + 3i est un vecteur propre de
 5 
A associé à 1 – i.
La solution réelle de l’équation [8] est donc de la forme :

α1( – 1)t 0+ 22


0 t
+1

1
–1
 πt  1 πt 0
1
πt πt
(α2 cos 4 – α3 sin 4 ) – 4 + (α2 sin 4 + α3 cos 4 )3
  5 5

46
B – Cas où la matrice A n’est pas diagonalisable

a) Forme de la solution

Si A n’est pas diagonalisable, alors on peut écrire A = QJQ – 1,


où J est une forme réduite de Jordan, autrement dit une matrice de
la forme :
 1 c1 
 
   0 
  c 
 i i  avec ci = 0 ou ci = 1, λ1,…, λi, ..., λn
   
 
 0  n − 1 cn − 1 
  n 

étant les n valeurs propres de A et où Q = (Q1 … Qi … Qn),
Q1,…, Qi,…, Qn étant n vecteurs de Jordan linéairement indépen-
dants associés respectivement à λ1,…, λi,…, et λn (voir encadré
Forme réduite de Jordan). On peut donc remplacer A par QJQ – 1
dans l’équation [2], pour obtenir : Xt + 1 = QJQ – 1Xt, ce qui donne,
en posant Zt = Q – 1Xt :
[9] Zt + 1 = JZt,
ou encore (en notant zit, i = 1,…, n, les éléments de Zt) :
z1t + 1 = λ1z1t + c1z2t
 


zit + 1 = λizit + cizi + 1t
[9] 

z n – 1t + 1 = λn – 1zn – 1t + cn – 1znt
znt + 1 = λnznt
Le système [9] est donc un système de n équations de récur-
rence linéaires d’ordre 1 avec ou sans second membre, que l’on
peut résoudre en commençant par la dernière équation. Celle-ci est
une équation de récurrence linéaire homogène d’ordre 1, dont la
solution est znt = zn0λtn.
On peut alors résoudre la n – 1ème équation du système [9] :
zn – 1t + 1 – λn – 1zn – 1t = cn – 1zn0λnt,
qui est une équation de récurrence linéaire d’ordre 1. Deux cas
sont ici possibles :

47
Forme réduite de Jordan
Lorsque la matrice A n’est pas diago- λi 1 0
 0 λ 1  ; si
0 0 λ 
nalisable (à savoir lorsque la multipli- est égale à 1, alors Ji = i
cité algébrique de l’une au moins de ses i
λ 0 0
elle est égale à 2, alors J =  0 λ 1  ;
valeurs propres est strictement supé- i

0 0 λ
rieure à la dimension du sous-espace i i
propre qui lui est associé), il n’existe i
λ 0 0
si elle est égale à 3, alors J =  0 λ 0 .
pas de matrice diagonale semblable à A. i

0 0 λ
En revanche il existe une forme réduite i i
de Jordan semblable à A, à savoir une i
matrice de la forme :
J1 0 … 0
 
Comme J est semblable à A, il existe
0 J2 … 0
 
une matrice inversible* Q telle que
J= A = QJQ – 1.
  
 0 … … Jm  La matrice Q est une matrice carrée
où les 0 désignent des « blocs de zéros » d’ordre m obtenue en résolvant l’équa-
et les Ji, des matrices de la forme : tion : AQ = QJ. Ses colonnes, appelées
λi ci1 0 … vecteurs de Jordan, forment ce que l’on
 
0
 0 λi ci2 …
   
0
  appelle une base de Jordan.

 0 … 0 λi cip – 1 
  Le point essentiel ici est que les matri-
0 … … 0 λi ces Ji peuvent se mettre sous la forme :
où λi est une valeur propre de A de λiI + N,
multiplicité algébrique p, et où les cij où I est une matrice identité et où N est
sont égaux à 0 ou à 1. Plus précisément la matrice :
0 ci1 0 …
 
les matrices Ji se construisent comme 0
suit : si la dimension du sous-espace
propre associé à λi est égale à k (autre-  0 0
 
ci2 …
 
0
 
ment dit s’il existe k vecteurs propres  0 … 0 
 
0 cip – 1
linéairement indépendants associés à λi), 0 … … 0 0
alors ci1 = … = cik – 1 = 0 et cik = … = qui est telle que Np = 0 (on dit qu’elle
cip – 1 = 1. est nilpotente d’ordre p).
Supposons, par exemple, que λi est une
valeur propre triple de A : si la dimen-
sion du sous-espace propre associé à λi

— soit cn – 1 = 0, l’équation est homogène et sa solution est :


zn – 1t = zn – 10λnt– 1 ;
— soit cn – 1 = 1, il y a résonance et la solution de l’équation est :
zn – 1t = (zn0t + zn – 10)λtn , puisque λn – 1 = λn.
Muni de cette solution, on peut alors résoudre la n – 2ème équa-
tion du système [9], en zn – 2t, et ainsi de suite, jusqu’à la première
équation.

48
Cette résolution du système [9] nous permet donc d’établir Zt,
puis Xt en prémultipliant Zt par Q (puisque Zt = Q – 1Xt).

b) Exemple

Soit le processus décrit par :

Xt + 1 = AXt, avec A =  0 5 0 
2 1 1
[10]
0 1 5 
Recherche des valeurs propres de A

Dét(A – λI) =  2 –0 λ 5 – λ 0  = (2 – λ) dét


1 1 5–λ 0
=
 0 1 5–λ  1 5–λ
(2 – λ)(5 – λ)2. La matrice A a donc 2 pour valeur propre simple et
5 pour valeur propre double.

Recherche des vecteurs propres de A


Les vecteurs propres de A associés à 2 sont les vecteurs P1 tels

que (A – 2I)P1 = 0 . Or A – 2I =  0 3 0 .
0 1 1

0 1 3 
Comme les trois colonnes de A – 2I, notées respectivement C1, C2

et C3, sont telles que C1 + 0C2 + 0C3 = 0 , on en déduit que P1 = 0


1

0
est un vecteur propre de A associé à 2.
Les vecteurs propres de A associés à 5 sont les vecteurs P2 tels
–3 1 1
que (A – 5I)P2 = 0 . Or A – 5I =  0 0 0. Comme le rang de

 0 1 0
A – 5I est égal à 2 (les première et troisième lignes de A – 5I sont
linéairement indépendantes; et sa deuxième ligne est composée
uniquement de 0), la dimension du sous-espace propre associé à 5
est égale à 3 – 2 = 1 (voir encadré Valeurs propres, vecteurs
propres, sous-espaces propres). La matrice A n’est donc pas
diagonalisable. La base de Jordan est alors formée par deux
vecteurs propres P1 et P2, et par un vecteur de Jordan Q1.

49
Comme les trois colonnes de A – 5I, notées respectivement C1,

C2 et C3, sont telles que C1 + 0C2 + 3C3 = 0 , on en déduit que

P2 = 0 est un vecteur propre de A associé à 5.


1

3
Recherche des vecteurs de Jordan
Les vecteurs de Jordan sont les vecteurs Q1 tels que :

A(P1 P2 Q1) = (P1 P2 Q1)J, avec J =  0 5 1 


2 0 0

0 0 5
Ils vérifient donc le système :
[a] AP1 = 2P1
[11] [b] AP2 = 5P2
[c] AQ1 = P2 + 5 Q1
L’équation [c] de ce système est équivalente au système d’équations
(en notant qi, i = 1, 2, 3, les éléments de Q1) :
2q1 + q2 + q3 = 1 + 5q1
 5q2 = 5q2
 q2 + 5q3 = 3 + 5q3
qui a pour solution q1 quelconque, q2 = 3, q3 = 3q1 – 2. En posant
q1 = 0, on retient le vecteur de Jordan Q1 :

Q1 =  3.
0

 – 2
La solution de l’équation [10] est donc Xt = QZt, où Q est la
matrice (P1 P2 Q1), et Zt la solution du système [12] :
[12] Zt + 1 = JZt,
(que l’on obtient en remplaçant Xt par QZt dans l’équation [10]),
autrement dit (en posant zit, i = 1, 2, 3, les éléments de Zt) du
système :
z1t + 1 = 2z1t
[12] z2t + 1 = 5z2t + z3t
z3t + 1 = 5z3t
De la dernière équation, on déduit z3t = z305t.
En remplaçant z3t par z305t dans la deuxième équation, on obtient
l’équation [13] z2t + 1 – 5z2t = z305t. C’est une équation de récurrence
linéaire d’ordre un avec second membre et résonance. Sa solution
est donc la somme de la solution de l’équation homogène associée

50
(ht = z205t) et d’une solution particulière de [13] du type pt = αt5t.
De pt = αt5t, on déduit pt + 1 = α(t + 1)5t + 1, et, en remplaçant dans
z30
[13], α = . La solution de la deuxième équation du système [12]
5
est donc z2t = z205t + z30t5t – 1.
Enfin, de la première équation, on déduit z1t = z102t.

 z102t

On a donc Zt =  z205t + z30t5t – 1.
 z305 t 
1 1 0  
t
z102
Comme Xt = QZt, on a Xt =  0 0 3 z205t + z30t5t – 1.
 0 3 – 2  z305t 
La solution de [10] est donc :

1

1
 
Xt = z102t 0 + (z205t + z30t5t – 1) 0 + z305t 3 .
0

0 3  – 2

3. Étude de la stabilité des solutions d’un système de n


équations de récurrence linéaires homogènes

Reprenons le système [2] :


Xt + 1 = AXt.
Nous avons vu que, à chaque condition initiale, correspond une
trajectoire unique solution de ce système. La question abordée
dans ce paragraphe est de savoir si certaines de ces trajectoires
convergent vers un vecteur d’équilibre, et, si oui, lesquelles.
Comme dans la section précédente, on dira que le processus est
globalement stable si et seulement si, quelle que soit la condition
initiale, il converge vers un vecteur d’équilibre. On dira qu’un
vecteur d’équilibre est globalement stable si et seulement si toutes
les trajectoires convergent vers lui — le seul vecteur d’équilibre
pouvant être globalement stable dans le cas des systèmes homo-
gènes étant le vecteur nul.

51
A – Conditions de stabilité lorsque l’on connaît les valeurs
propres de la matrice

a) Cas où la matrice A est diagonalisable

Nous avons vu que, lorsque A est diagonalisable, les solutions du


n
système [2] peuvent s’écrire sous la forme Xt = Σ α λ P , où λ est
i=1
t
i i i i

valeur propre de A et où Pi est un vecteur propre de A associé à λi.


Comme dans le cas des équations d’ordre n, le comportement de
(Xt) dépend donc de celui de λti. On retrouve donc les mêmes condi-
tions nécessaires et suffisantes que dans la section précédente.

□ Condition nécessaire et suffisante de stabilité globale de 0

Le vecteur d’équilibre 0 est globalement stable (autrement dit X0,

Xt ⎯⎯→ 0 ) si et seulement si toutes les valeurs propres de A ont
t→∞
un module strictement inférieur à 1.

Exemple — Le vecteur d’équilibre 0 du processus décrit par :
–1 –1
 
1
2 4 2

= AX , avec A =  ,
1 1
[14] Xt + 1 t 0
4 2

 –1
2
–1
4
–1
2 
est globalement stable. En effet :
|A – λI| = (
1
2
)[(14 – λ)(–21 – λ) + 18 ] + 4λ.
–λ

1 λ λ λ 3
D’où |A – λI| = ( – λ)(λ² + ) + = λ(– λ² + + ).
2 4 4 4 8
λ 3 25
Le discriminant de (– λ² + + ) étant égal à /16, ces deux racines
4 8
sont 3/4 et – 1/2. Chacune des trois valeurs propres de A — 0, 3/4 et
–1
/2 — a donc bien un module strictement inférieur à 1.

52
□ Condition nécessaire et suffisante de stabilité globale du
processus

Le processus décrit par le système [2] est globalement stable si et


seulement si :

— le vecteur d’équilibre 0 est globalement stable ou
— toutes les valeurs propres de A ont un module strictement
inférieur à 1 sauf une (pouvant être multiple) qui est égale à 1.

Exemples — Le processus décrit par :


1 1 2
3 
[15] Xt + 1 = AXt, avec A =  0 2 –
4 ,
0 5 –2 
est globalement stable.
5(3)
En effet |A – λI| = (1 – λ)[(2 – λ)( – 2 – λ) +
4
] = (1 – λ)(λ² – 14).
Les valeurs propres de A sont donc 1, 1/2 et – 1/2 ; elles ont un
module strictement inférieur à 1 sauf une qui est égale à 1.

□ Ensemble de stabilité de 0

Si, dans l’exemple précédent, l’équilibre 0 n’est pas globalement
stable — puisque 1 est valeur propre de A —, on peut cependant
déterminer son ensemble de stabilité. En effet, comme on a :
Xt = α1P1 + α2(1/2)tP2 + α3( – 1/2)tP3,
où P1, P2 et P3 sont des vecteurs propres de A associés à 1, 1/2 et
–1 →
/2 respectivement, il s’ensuit que, pour que Xt converge vers 0 ,
il faut et il suffit que α1 soit nul. Les trajectoires qui convergent

vers 0 sont donc de la forme :
(Xt) = (α(1/2)tP2 + β( – 1/2)tP3), avec α  IR, β  IR.
Or, si Xt = α(1/2)tP2 + β( – 1/2)tP3, alors X0 = αP2 + βP3.

L’ensemble de stabilité de 0 est donc ici :
S 0 = {αP2 + βP3, α  IR, β  IR}.

Plus généralement, on peut montrer que l’ensemble de stabilité de



l’équilibre 0 est le sous-espace vectoriel de IRn engendré* par les

53
vecteurs propres associés aux valeurs propres dont le module est
strictement inférieur à 1.
Reprenons, en effet, le système [2 ] :
Xt + 1 = AXt.
Supposons que A ait m valeurs propres, λ1,…, λm, dont le module
est strictement inférieur à 1, avec 0 ≤ m ≤ n, et n – m valeurs
propres, λm + 1,…, λn, dont le module est supérieur ou égal à 1. Il
s’ensuit que pour que Xt,
Xt = αλ1tP1 + … + αmλmt Pm+ αm + 1λmt+ 1Pm + 1 + … + αnλntPn,

converge vers 0 , il faut et il suffit que αi = 0, i, i = m + 1,…, n.

Les trajectoires qui convergent vers 0 sont donc de la forme :
 Σ αiλitPi.
m
(Xt) =
i = 1 
m m
Or, si Xt = Σ α λ P , alors X = Σ α P .
i=1
t
i i i 0
i=1
i i


L’ensemble de stabilité de 0 est donc bien :
 
m

i = 1
Σ
S→0 =  αiPi, αi  IR, i = 1,…, m.

b) Cas où la matrice A n’est pas diagonalisable

Nous avons vu que, lorsque A n’est pas diagonalisable, les solu-


m
tions de [2] peuvent s’écrire sous la forme Xt = Σ p (t)λ Q , où λ
i=1
i
t
i i i

est valeur propre de A, où Qi est un vecteur propre ou un vecteur


de Jordan de A associé à λi et où pi(t) est un polynôme. Ici le
comportement de (Xt) dépend donc de celui de pi(t)λti, pi(t)λti étant le
produit d’une fonction polynôme et d’une fonction exponentielle.
Comme, lorsque t tend vers l’infini, la fonction exponentielle
« l’emporte » sur la fonction polynôme, on a ici quatre cas :
1er cas : λi > 1 si et seulement si pi(t)λti ⎯⎯→ ± ∞.
t→∞
2ème cas : λi =1. On a donc pi(t)λti = pi(t). Dans ce cas pi(t)λti tend
vers une limite finie — la constante ℓ —, lorsque t tend vers
l’infini si et seulement si pi(t) est un polynôme de degré 0 (plus
précisément si et seulement si pi(ּ) = ℓ). Or ceci est le cas pour tous

54
les termes de la forme pi(t)1t si et seulement si la dimension du
sous-espace propre de A associé à 1 est égale à la multiplicité
algébrique de 1.
3ème cas : – 1 < λi < 1 si et seulement si pi(t)λti ⎯⎯→ 0.
t→∞
4ème cas : λi  – 1 si et seulement si pi(t)λti n’a pas de limite.
Au total, pi(t)λti converge vers 0 si et seulement si λi < 1, pi(t)λti
converge vers une constante ℓ si et seulement si λi = 1 et pi(t) = ℓ,
et ne converge pas, du moins vers une limite finie, dans tous les
autres cas.
Il s’ensuit que :

le vecteur d’équilibre 0 est globalement stable (autrement dit X0,

Xt ⎯⎯→ 0 ) si et seulement si toutes les valeurs propres de A ont
t→∞
un module strictement inférieures à 1 ;
et que :
le processus décrit par le système [2] est globalement stable si et
seulement si :

— 0 est globalement stable ou
— toutes les valeurs propres de A ont un module strictement
inférieures à 1 sauf une qui est égale à 1, la dimension du sous-
espace propre qui lui est associée devant être égale à la multipli-
cité algébrique de 1.


B – Conditions de stabilité de 0 lorsque l’on ne connaît pas
les valeurs propres de la matrice

Soit le système homogène :


[2] Xt + 1 = AXt.
Dans la section précédente, on a vu que toutes les trajectoires du
→ →
processus décrit par [2] convergent vers 0 (0 est globalement
stable) lorsque toutes les valeurs propres de A sont en module
strictement inférieures à 1. Dans ce cas, on dit aussi que la matrice
A est séquentiellement stable — ou s-stable.
Il existe un certain nombre de critères permettant d’établir si A
est ou non séquentiellement stable, et ce, sans déterminer ses
valeurs propres, ce qui évite, parfois, de lourds calculs.

55
a) Deux conditions nécessaires de stabilité séquentielle de A

Pour qu’une matrice A d’ordre n soit séquentiellement stable, il


faut que l’on ait : tr(A) < n et dét(A) < 1.
En effet, si l’on note λ1,…, λn les n valeurs propres de A, on a :
n n
λi < 1, i = 1,…, n  Σ λ  < n  Σ λ
i=1
i
i=1
i < n  tr(A) < n

et
n n
λi < 1, i = 1,…, n  Πλ  < 1  Πλ
i=1
i
i=1
i < 1  dét(A) < 1.

b) Une condition suffisante de stabilité séquentielle de A

S’il existe n réels ki strictement positifs tels que l’on ait : i,
n
i = 1,…, n, Σ a k < k , alors A = (a ) est séquentiellement stable.
j=1
ij j i ij

Démontrons ce théorème à l’ordre 2 (le principe de la démons-


tration étant le même à l’ordre n).
À l’ordre 2, le théorème devient, s’il existe deux réels k1 et k2,
tels que :
• (hypothèse 1) k1 > 0 et k2 > 0 ;
• (hypothèse 2) a11k1 + a12k2 < k1 ; et
• (hypothèse 3) a21k1 + a22k2 < k2 ;
alors A est séquentiellement stable (ses deux valeurs propres sont
en module strictement inférieures à 1).
Notons λ, une valeur propre quelconque de A, et P =  , un
x1
x2
vecteur propre associé à λ. On a donc AP = λP. Or
a11x1 + a12x2 = x1 a11x1 + a12x2  x1
AP = λP   
a21x1 + a22x2 = x2 a21x1 + a22x2  x2

56
a 11
x1
k1
x x
k1 + a12 2 k2   1 k1
k2 k1
 (hypothèse 1)  [16]

a
x1 x x
21 k1 + a22 2 k2   2 k2
k1 k2 k2

x1 x x x
Deux cas sont alors possibles :  2 et 2  1 .
k1 k2 k2 k1

x1 x
Supposons que  2 .
k1 k2

 a  xk
11
1
k1 + a12
x1
k1
x
k2   1 k1 [17]
k1
[16]  
1

 a  k
x x1 x
21
1
k1 + a22 k2   2 k2 [18]
1 k1 k2
Or [17]  a11k1 + a12k2  λk1.
Et comme (hypothèse 2) a11k1 + a12k2 < k1 , il s’ensuit que k1 > λk1
ou, ce qui revient au même 1 > λ.
x2 x
On arrive à la même conclusion, dans le cas où  1 (mais
k2 k1
en utilisant, cette fois, l’équation [18]).

Si A est à éléments positifs et vérifie ce théorème, alors on dit que


A est une matrice productive.

57
CHAPITRE II
ÉVOLUTIONS CONTINUES LINÉAIRES
À COEFFICIENTS CONSTANTS

Dans ce chapitre, le temps n’est plus une succession de périodes,


il s’écoule au contraire continûment. Les processus ne prennent
donc plus la forme mathématique de suites, mais de fonctions
continues, et ils sont décrits par des équations différentielles. Si le
mode de résolution de ces équations est différent de celui des
équations de récurrence, on retrouvera ici les principaux concepts
(processus, trajectoire, équilibre, ensemble de stabilité, point-selle,
etc.) rencontrés et définis dans le chapitre précédent.

I Équations différentielles linéaires d’ordre n à


coefficients constants

Les équations différentielles linéaires d’ordre n à coefficients


constants sont des équations du type :
[1] x(n)(t) + an – 1x(n – 1)(t) + … + aix(i)(t) + … + a1x, . (t) + a0x(t) =
f(t)
où t  IR, ai  IR (les ai étant les coefficients de l’équation) avec
a0 ≠ 0, où f(ּ) est une fonction de IR dans IR et où x, .(t) désigne la
dérivée de la fonction x(ּ) en t.
L’inconnue de cette équation est la fonction x(t), les coefficients
ai et la fonction f(ּ) étant donnés. On dit que l’équation est
différentielle et d’ordre n, car elle fait dépendre x(n)(t), la dérivée
nième de la fonction x(t), de ses n dérivées précédentes.
Supposons, par exemple, que x(t) désigne le prix du blé à
l’instant t et que la trajectoire suivie par ce prix soit décrite par
l’équation d’ordre 2 :
[2] x, ..(t) + a1x, .(t) + a0x(t) = 0.
Cette équation établit un lien (constant dans le temps, puisque les
coefficients a0 et a1 sont des constantes) entre la position — ou le
niveau — du prix du blé à l’instant t, donnée par x(t), sa vitesse

58
d’évolution en t, donnée par x, .(t), et son accélération en t, donnée
par x, ..(t). L’idée est ici que, si l’on connaît le niveau du prix et sa
vitesse d’évolution à l’instant initial t0, autrement dit si l’on
connaît x(t0) et x, .(t0), alors, grâce à cette équation, on en connaît
également l’accélération en t0, et l’on peut par là même déterminer
le niveau du prix à n’importe quel instant t. Pour cette raison, on
appelle le vecteur (x(t0) , x, .(t0)), encore noté X0, la condition
initiale du processus décrit par l’équation [2]. Et l’on verra que, à
chaque condition initiale correspond une trajectoire — ou
fonction — unique solution de l’équation [2]. Notons que, si l’on
pose, comme cela est généralement le cas (et comme on le
supposera dans toute cette section), t0 = 0, alors la condition
initiale est donnée par le vecteur (x(0) , x, .(0)).
Si l’on transpose ce que nous venons de dire aux équations
d’ordre n, alors la condition initiale est évidemment donnée par le
vecteur (x(0) , x, .(0) , … , x(n – 1)(0)).
La question importante pour les économistes est, ici encore, de
savoir si certaines des trajectoires vérifiant l’équation [1] conver-
gent, et, si oui, lesquelles et vers quel(s) équilibre(s).

1. La notion d’équilibre

Les équilibres du processus décrit par l’équation [1] :


x(n)(t) + an – 1x(n – 1)(t) + … + aix(i)(t) + … + a1x, .(t) + a0x(t) = f(t)
sont les fonctions constantes x(ּ) = xe, où xe — que l’on appellera
valeur d’équilibre ou équilibre s’il n’y a pas d’ambiguïté —
vérifie l’équation suivante :
[2] a0xe = f(t).
En effet, si x(ּ) = xe, alors x(n)(t) = 0, et ce, quel que soit n > 0.
Comme a0 est une constante, cette égalité n’est possible que si f(ּ)
est une fonction constante, donc si  t  IR, f(t) = c, où c est une
constante. Dans ce cas, l’équation [2] devient :
[3] a0xe = c.
c
Et, comme a0 ≠ 0, on a : xe = /a0.
Conclusion : si f(ּ) = c, alors le processus décrit par l’équation
c
[1] a un unique équilibre : la fonction constante x(ּ) = /a0.

59
2. Résolution des équations différentielles linéaires
d’ordre n à coefficients constants

Afin de pouvoir établir (en 3) les conditions nécessaires et/ou


suffisantes de convergence d’un processus décrit par une équation
différentielle d’ordre n à coefficients constants, il est nécessaire de
partir de la solution générale de cette équation.

A – Solution générale des équations homogènes

Les équations homogènes sont les équations dont le second


membre est nul. Ce sont donc des équations du type :
[4] x(n)(t) + an – 1x(n – 1)(t) + … + a1x, .(t) + a0x(t) = 0.
Afin de voir comment se présente la solution de cette équation, nous
allons commencer par étudier les cas où n = 1 puis où n = 2.

a) Équations homogènes d’ordre 1

Les équations homogènes d’ordre 1 sont des équations du type :


[5] x, .(t) + a0x(t) = 0.
Les solutions de cette équation vérifient également l’équation [6] :
[6] ea0tx, .(t) + a0ea0tx(t) = 0,
que l’on obtient en multipliant les deux membres de l’équation [5]
par ea0t. En intégrant l’équation [6] sur l’intervalle [0 , t], il vient :
Erreur ! = 0.
D’où l’on déduit [ea0sx(s)]0,t = 0, ou encore ea0tx(t) – x(0) = 0.
La solution générale de l’équation [5] est donc de la forme :
x(t) = x(0)e – a0t.
Remarquons ici que, pour chaque réel x(0), il existe une unique
fonction x(ּ) telle que x(t) = x(0)e – a0t ; autrement dit, à chaque
condition initiale x(0) correspond une unique fonction solution de
l’équation [5].

60
b) Équations homogènes d’ordre 2

Les équations homogènes d’ordre 2 sont des équations du type :


[7] x, ..(t) + a1x, .(t) + a0x(t) = 0.
Comme dans le paragraphe précédent, on peut ici montrer que, à
chaque condition initiale (x(0) , x, .(0)), correspond une unique
fonction solution de l’équation [7]. Or nous savons déjà que,
lorsque la condition initiale est (0 , 0), la solution de l’équation [7]
est la fonction constante x)ּ) = 0 (cf. 1). Reste donc à déterminer
les solutions de [7] pour toutes les autres conditions initiales.

□ Résolution de l’équation

Pour déterminer ces solutions, nous allons nous inspirer de ce


qui se passe dans le cas n = 1, en considérant une fonction du type
αeλt (avec α ≠ 0 puisque nous cherchons des solutions non nulles).
La fonction αeλt est solution de l’équation [7] si et seulement si
αλ2eλt + a1αλeλt + a0αeλt = 0 ou, ce qui revient au même, si et
seulement si αeλt(λ2 + a1λ + a0) = 0. On cherche donc λ tel que :
λ2 + a1λ + a0 = 0. Le problème se ramène ainsi à celui du calcul
des racines du polynôme λ2 + a1λ + a0, noté P(λ) et dit polynôme
caractéristique de l’équation [7].
Le discriminant de P(λ) est Δ = a12 – 4a0. Trois cas sont alors
possibles : Δ > 0, Δ < 0 et Δ = 0.

1er cas : Δ > 0. P(ּ) a deux racines réelles distinctes :


μ1 = Erreur ! et μ2 = Erreur !.
μ1 t μ2 t
Par conséquent α1e et α2e sont deux solutions de [7]. On peut
facilement vérifier (en remplaçant dans l’équation [7]) que les
μ1 t μ2 t
fonctions de la forme (α1e + α2e ) sont également solutions de
cette équation.
μ1 t μ2 t
Posons x(t) = α1e + α2e et montrons que l’on peut exprimer
α et α de façon unique en fonction de la condition initiale
(x(0) , x, .(0)). Car, si c’est le cas, comme nous savons que, à
chaque condition initiale, correspond une solution unique de
l’équation [7], nous saurons alors que nous avons trouvé cette
solution.

61
μ1 t μ2 t μ1 t μ2 t
Si x(t) = α1e + α2e , et donc x, .(t) = α1μ1e + α2μ2e , alors
x(0) = α1 + α2 et x, .(0) = αμ1 + αμ2. Nous sommes ici en présence
d’un système de deux équations à deux inconnues, α et α, ayant
pour unique solution :
(α , α) = Erreur !.
Pour (x(0) , x, .(0)) donné, l’unique solution de [7] est donc :
Erreur !

2ème cas : Δ < 0. P(ּ) a deux racines conjuguées :


μ = Erreur ! et Erreur ! = Erreur !.

Les fonctions de la forme αeμt ou βeμ, t sont donc solutions de

l’équation [7], de même que les fonctions de la forme αeμt + βeμ, t.

Posons x(t) = αeμt + βeμ, t. On peut ici aussi exprimer α et β de
façon unique en fonction de x(0) et x, .(0). En effet, si
– –
x(t) = αeμt + βeμ, t et donc x, .(t) = αμeμt + βμ̄eμ, t, alors x(0) = α + β
.
et x, (0) = αμ + βμ̄. Nous sommes en présence d’un système de
deux équations à deux inconnues ayant pour unique solution :
(α , β) = Erreur !.
Ainsi, pour (x(0) , x, .(0)) donné, la solution de l’équation [7]
est :
Erreur !

Remarque : si la condition initiale est un vecteur de réels, alors


α et β sont conjugués et x(t) est réelle.
La première proposition (β = ᾱ) a été démontrée dans le chapitre
I (pages 13-14)1. La solution de l’équation [7] est donc bien réelle.
– –
En effet, x(t) = αeμt + βeμ, t = αeμt + ᾱeμ, t, ce qui donne, en
remplaçant μ par a + ib, x(t) = αe (a + ib)t + ᾱe(a – ib)t et donc
−−−
x(t) = eat(αeibt + ᾱe – ibt) = eat(αeibt + ᾱe ibt, ) = 2eat(αeibt).
ibt
En remplaçant, dans cette expression, e par cos bt + i sin bt et
α par ce que nous avons trouvé plus haut, on obtient ainsi la solu-
tion réelle de l’équation [7], à savoir :
Erreur !

1 Le couple (α , β) est en effet le même que dans le chapitre I (page 12), avec (x(0) ,
.
x, (0)) à la place de (x0 , x1).

62
3ème cas : Δ = 0. P(ּ) a une racine réelle double : μ = – 1/2.
a

La méthode utilisée jusqu’à présent ne nous permet plus de


déterminer la solution de l’équation [7]. Car, si l’on pose x(t) = αeμt,
on ne pourra pas exprimer α de façon unique en fonction des
conditions initiales du processus x(t). Dans ce cas, en effet,
x(0) = α et x, .(0) = αμ. Cependant, on peut montrer que si (eμt) est
solution de l’équation [7], alors, d’une part, (teμt) est également
solution de [7], et, d’autre part, toute solution de [7] peut s’écrire
sous la forme d’une combinaison linéaire unique de ces deux
solutions. En effet (teμt) est solution de [7] si
2μeμt + tμ2eμt + a1(eμt + tμeμt) + a0teμt = 0,
donc si eμt[2μ + a1 + t(μ2 + a1μ + a0)] = 0,
ou encore si eμt[2μ + a1 + tP(μ)] = 0.
Ce qui est vrai puisque P(μ) = 0 et 2μ + a1 = 2( – 1/2) + a1 = 0.
a
.
Or si x(t) = αe + βte , et donc x, (t) = αμe + βtμeμt + βeμt, alors
μt μt μt

x(0) = α et x, .(0) = αμ + β. Nous sommes ici en présence d’un


système de deux équations à deux inconnues, α et β, ayant pour
unique solution :
(α , β) = (x(0) , x. (0) – μx(0)).
Ainsi, pour (x0 , x1) donné, la solution de l’équation [7] est :
x(t) = x(0)eμt + [ x, .(0) – μx(0)]teμt .

Récapitulatif : la solution de l’équation


[7] x, ..(t) + a1x, .(t) + a0x(t), avec a0 ≠ 0 pour (x(0) , x, .(0))
donné
Polynôme caractéristique :
P(λ) = λ2 + a1λ + a0

1er cas : P(ּ) a deux racines réelles α1(1,μ1) + α2(1,μ2) = (x(0),x, .(0))
distinctes μ1 et μ2. La solution est alors :
μ1t μ2t
x(t) = α1e + α2e , 2ème cas : P(ּ) a deux racines non réelles
où α1 et α2 sont solutions du système : a + ib et a – ib. La solution réelle est
alors :

63
x(t) = αeat cos bt + βeat sin bt, où α et β sont solutions du système :
α (1,a) + β (0,b) = (x(0),x, .(0))

3ème cas : P(ּ) a une racine réelle double


μ. La solution est alors :
x(t) = (α + βt)eμt,
où α et β sont solutions du système :
α (1,μ) + β (0,1) = (x(0),x, .(0))

□ Exemples

Exemple 1 — Soit l’équation d’ordre 2 :


[8] x, ..(t) + 3x, .(t) + 2x(t) = 0.
Le polynôme caractéristique de cette équation est :
P(λ) = λ2 + 3λ + 2.
Comme le discriminant de ce polynôme, Δ = 32 – 4(2) = 1, est
positif, P(ּ) a deux racines réelles distinctes, qui sont ici – 2 et – 1.
La solution de l’équation [8] est donc de la forme :
x(t) = α1e – 2t + α2e – t, avec α1  IR et α2  IR.
Remarque : dans cet exemple, comme dans le suivant, la condi-
tion initiale n’étant pas donnée, on ne peut spécifier α1 et α2 ; on se
contente donc de déterminer la forme de la solution.

Exemple 2 — Soit l’équation d’ordre 2 :


[9] x, ..(t) + 2x, .(t) + 2x(t) = 0.
Le polynôme caractéristique de [9] — P(λ) = λ2 + 2λ + 2 — a
deux racines complexes, – 1 + i et – 1 – i (voir exemple 2, page
15). La solution réelle de cette équation est donc de la forme :
x(t) = αe – t cos t + βe – t sin t, avec α  IR et β  IR.
Exemple 3 — Détermination de la trajectoire solution de l’équation :
[10] x, ..(t) – 4x, .(t) + 4x(t) = 0, lorsque x(0) = 1 et x, .(0) = 0.
Le polynôme caractéristique de [10] — P(λ) = λ2 – 4λ + 4 — a
une racine réelle double, 2 (voir exemple 3, page 16). La solution
de cette équation est donc de la forme : x(t) = αe2t + βte2t.
Comme on connaît x(0) et x, . (0), on peut déterminer α et β. En
effet, si x(t) = αe2t + βte2t, alors x, .(t) = 2αe2t + βe2t + 2βte2t ; α et β

64
sont donc solutions du système
{ x(0) = αe2(0) + ß(0)e2(0), x, .(0) = 2αe2(0) + ße2(0) + 2ß(0)e2(0)
Pour x(0) = 1 et x, .(0) = 0, on a donc : α = 1 et β = – 2.
Ainsi la solution de l’équation [10] lorsque x(0) = 1 et x, .(0) = 0
est :
x(t) = (1 – 2t)e2t.

c) Équations homogènes d’ordre 3

Il s’agit d’équations du type :


[11] x, ...(t) + a2x, ..(t) + a1x, .(t) + a0x(t) = 0, avec a0 ≠ 0.
Tout se passe ici exactement de la même façon que pour les
équations homogènes d’ordre 2, à ceci près :
— que la condition initiale n’est pas un vecteur de IR2 mais de IR3 ;
— et que le polynôme caractéristique de l’équation [11] est un
polynôme de degré 3, P(λ) = λ3 + a2λ2 + a1λ + a0, et non de degré
2 ; il a donc trois racines dans l’ensemble des complexes.
Quatre cas sont donc ici possibles :
1er cas : P(ּ) a trois racines réelles distinctes, μ1, μ2 et μ3. Toute
solution de l’équation [11] est alors de la forme :
x(t) = α1eμ1t + α2eμ2t + α3eμ3t.
Si l’on connaît la condition initiale (x(0) , x, .(0) , x, ..(0)), on peut
alors déterminer α1, α2 et α3; ce sont les solutions du système :
α1(1,μ1,μ1,2) + α2(1,μ2,μ2,2) + α3(1,μ3,μ3, ) = (x(0),x, .(0),x, ..(0))
2

obtenu de la même façon que pour les équations d’ordre 2.


2ème cas : P(ּ) a une racine réelle simple, μ1, et une racine réelle
double, μ2. La solution de l’équation [11] est alors :
x(t) = α1eμ1t+ (α2 + α3t) eμ2t,
où α1, α2 et α3 sont solutions du système :
α1(1,μ1,μ1,2) + α2(1,μ2,μ2,2) + α3(0,,2μ2) = (x(0),x, .(0),x, ..(0)).

3ème cas : P(ּ) a une racine réelle triple, μ1. La solution de l’équation
[11] est alors :
x(t) = (α1 + α2t + α3t2)eμ1t,
où α1, α2 et α3 sont solutions du système :

65
α1(1,μ1,μ1,2) + α2(0,1,2μ1) + α3(0,0,2) = (x(0),x, .(0),x, ..(0)).

4ème cas : P(ּ) a une racine réelle, μ, et deux racines non réelles, a +
ib et a – ib. La solution réelle de l’équation [11] est alors :
x(t) = α1eμt + α2eat cos bt + α3eat sin bt,
où α1, α2 et α3 sont solutions du système :
α1(1,μ, μ2) + α2(1,a,a2 – b2) + α3(0,b,2ab) = (x(0),x, .(0),x, ..(0)).

d) Équations homogènes d’ordre n

Il s’agit d’équations du type :


[4] x(n)(t) + an – 1x(n – 1)(t) + … + a1x, .(t) + a0x(t) = 0.
Tout se passe ici exactement de la même façon que pour les
équations homogènes d’ordre 2 et d’ordre 3, à ceci près :
— que la condition initiale est un vecteur de IRn ;
— que le polynôme caractéristique de l’équation [4] est un poly-
nôme de degré n, P(λ) = λn + an – 1λn – 1 + … + a1λ + a0 ; il a donc
n racines dans l’ensemble des complexes ;
— que, pour n > 3, ce polynôme peut avoir des racines non réelles
multiples.
Les solutions réelles de l’équation [6] sont donc des combinai-
sons linéaires de termes de la forme :
— eμt si μ est une racine réelle simple de P(ּ) ;
— eμt, teμt, t2eμt,…, t k – 1eμt si μ est une racine réelle multiple (et de
multiplicité algébrique k) de P(ּ) ;
— eat cos bt et eat sin bt si a + ib est une racine non réelle simple de
P(ּ) ;
— eat cos bt, teat cos bt, t2eat cos bt,…, t k – 1eat cos bt et eat sin bt,
teat sin bt, t2eat sin bt,…, t k – 1eat sin bt si a + ib est une racine non
réelle multiple (et de multiplicité algébrique k) de P(ּ).

B – Solution générale des équations avec second membre

Les équations avec second membre sont les équations du type :


[1] x(n)(t) + an – 1x(n – 1)(t) + … + a1x, .(t) + a0x(t) = f(t),
avec a0 ≠ 0 et f)ּ) ≠ 0.
66
a) Forme de la solution

On peut ici montrer que toute solution x(t) de l’équation [1] est
de la forme h(t) + p(t), où h(t) est solution de l’équation homogène
associée à [1] et où p(t) est une solution particulière de [1]. En
effet, si p(t) est une solution particulière de [1], on a :
[1′] p(n)(t) + an – 1p(n – 1)(t) + … + a1p, .(t) + a0p(t) = f(t).
Or, par soustraction de [1′] à [1], on obtient :
[x(n)(t) – p(n)(t)] + an – 1[x(n – 1)(t) – p(n – 1)(t)] + ... + a0[x(t) – p(t)] = 0.
La fonction [x(t) – p(t)] est donc solution de l’équation homogène
associée à l’équation [1]. Si l’on note h(t) cette solution, on a
h(t) = [x(t) – p(t)] et donc x(t) = [h(t) + p(t)].
On a vu, dans le paragraphe précédent, comment trouver la
solution de l’équation homogène associée à l’équation [1]. Pour
déterminer x(t), il ne reste donc plus qu’à déterminer p(t).

b) Détermination d’une solution particulière

Si, en règle générale, on ne peut pas trouver de solution particu-


lière de l’équation [1], cela est cependant possible lorsque f(t), le
second membre de [1], est un polynôme, une exponentielle, un
sinus, un cosinus ou une combinaison linéaire de polynômes,
d’exponentielles, de sinus et de cosinus. C’est alors la forme de f(t)
qui guide la recherche d’une solution particulière de [1] : on cher-
che, en effet, une solution particulière, p(t), ayant la même forme
que f(t) ; et que l’on détermine en remplaçant x(t) par p(t) dans [1].

□ Exemples

Exemple 1 — Soit l’équation d’ordre 3 :


[12] x, ...(t) + a2x, ..(t) + a1x, .(t) + a0x(t) = c,
où c est une constante non nulle.
Lorsque le second membre de l’équation est une constante c, la
solution particulière est p(t) = xe, où xe est la valeur d’équilibre du
processus. La solution de l’équation [12] est donc de la forme :
c
x(t) = h(t) + /a0.

67
Exemple 2 — Soit l’équation d’ordre 3 :
[13] x, ...(t) + x, ..(t) – 4x, .(t) – 4x(t) = 4t + 8.
Les racines du polynôme caractéristique de cette équation,
P(λ) = λ3 + λ2 – 4λ – 4, sont – 1, 2 et – 2 (voir page 19). La solu-
tion générale de l’équation homogène associée à [13] est donc :
h(t) = αe – t + αe2t + αe – 2t, avec αi  IR, i = 1, 2, 3.
Le second membre de [13] étant un polynôme de degré 1, on
pose p(t) = at + b. On a donc p, .(t) = a, et p, ...(t) = p, ..(t) = 0. En
remplaçant dans [13], on obtient : 0 + 0 – 4a – 4(at + b) = 4t + 8,
et donc : – 4at – 4a – 4b = 4t + 8. Ce qui est vérifié, quel que soit t,
si a = – 1 et b = – 1. D’où la solution particulière : p(t) = – t – 1.
La solution générale de l’équation [13] est donc :
x(t) = αe – t + αe2t + αe – 2t – t – 1, avec αi  IR, i = 1, 2, 3.

Exemple 3 — Soit l’équation d’ordre 2 :


[14] x, ..(t) + 3x, .(t) + 2x(t) = 3e2t.
La solution de l’équation homogène associée à l’équation [14]
est (comme on l’a vu dans l’exemple 1, page 64) :
h(t) = α1e – 2t + α2e – t, avec αi  IR, i = 1, 2.
Le second membre de l’équation [14] étant une fonction de la
forme f(t) = ae2t, on pose p(t) = ae2t. On a donc p, .(t) = 2ae2t et
p, ..(t) = 4ae2t. En remplaçant dans [14], on obtient :
4ae2t + 6ae2t + 2ae2t = 3e2t,
1
ou encore : (4 + 6 + 2)ae2t = 3e2t. D’où : a = et p(t) = Erreur !.
4
La solution générale de l’équation [14] est donc :
x(t) = α1e – 2t + α2e – t + Erreur !, avec αi  IR, i = 1, 2.

□ Problème de la résonance

Si, dans l’exemple précédent, on avait eu pour second membre,


non pas 3e2t, mais 3e – 2t, on n’aurait pu poser p(t) = ae – 2t. En effet,
dans la mesure où – 2 est racine de P(λ), on aurait eu, dans ce cas,
p, ..(t) + 3p, .(t) + 2p(t) = 0, et non p, ..(t) + 3p, .(t) + 2p(t) = 3e – 2t.
Autrement dit, comme – 2 est racine de P(λ), p(t) = ae – 2t est
solution de l’équation homogène associée à l’équation [14] ; ce ne
peut donc être une solution particulière de l’équation :

68
[15] x, ..(t) + 3x, .(t) + 2x(t) = 3e – 2t.
Dans ce cas, dit de résonance, pour déterminer une solution
particulière de l’équation [15], on procède de la même façon que
pour les équations de récurrence : au lieu de poser p(t) = ae – 2t, on
pose p(t) = ate – 2t. On a donc :
p, .(t) = ae – 2t – 2ate – 2t et p, ..(t) = – 4ae – 2t + 4ate – 2t.
En remplaçant dans l’équation [15], on obtient :
– 4ae – 2t + 4ate – 2t + 3ae – 2t – 6ate – 2t + 2ate – 2t = 3e – 2t,
ou, ce qui revient au même :
at(4 – 6 + 2)e – 2t + a( – 4 + 3)e – 2t = 3e – 2t
et donc : – a = 3. Il s’ensuit que a = – 3.
La solution particulière est donc p(t) = – 3te – 2t, et la solution
générale :
x(t) = α1e – 2t + α2e – t – 3te – 2t, avec αi  IR, i = 1, 2.

Remarques :
— Si, dans le cas que nous venons de traiter, – 2 avait été racine
double de P(λ), alors, on n’aurait pas posé p(t) = ate – 2t, mais
p(t) = at2e – 2t. De façon plus générale, si l’équation [15] avait été
une équation d’ordre n, et si – 2 avait été racine d’ordre p (p < n)
de P(λ), alors, on aurait posé p(t) = at pe – 2t.
— On a des cas de résonance :
• lorsque le second membre de l’équation est de la forme αeλt,
avec λ racine du polynôme caractéristique de l’équation homogène
associée :
• lorsque le second membre est de la forme α cos bt ou α sin bt,
avec b la partie imaginaire d’une racine du polynôme caractéristi-
que de l’équation homogène associée.

3. Équations différentielles linéaires à coefficients


constants et stabilité

On va maintenant s’intéresser à la question de la stabilité des


trajectoires décrites par des équations différentielles linéaires à
coefficients constants. Nous renvoyons ici le lecteur aux défini-
tions que nous avons données aux pages 22 et 23.

69
A – Conditions de stabilité lorsque l’on connaît les racines
du polynôme caractéristique de l’équation

Reprenons le processus défini par l’équation [1] :


[1] x(n)(t) + an – 1x(n – 1)(t) + … + a1x, .(t) + a0x(t) = f(t).
À chaque condition initiale correspond, on l’a dit, une unique
trajectoire solution de [1]. Il va de soi que, pour que cette trajec-
toire converge vers une valeur d’équilibre, il faut que cette valeur
d’équilibre existe. Or (cf. 1) ceci n’est le cas que si f(ּ) = c. Les
processus ici concernés sont donc ceux qui sont définis par une
équation du type :
[16] x(n)(t) + an – 1x(n – 1)(t) + … + a1x, .(t) + a0x(t) = c.
On étudiera ici séparément le cas des équations homogènes
(c = 0) et celui des équations non homogènes (c ≠ 0).

a) Cas des équations homogènes

Reprenons l’équation [4] :


[4] x(n)(t) + an – 1x(n – 1)(t) + … + a1x, .(t) + a0x(t) = 0.
On a vu que, quelles que soient les racines de son polynôme
caractéristique, P(ּ), la solution réelle, x(t), de cette équation est
une combinaison linéaire de termes de la forme : eλt, t keλt (k > 0),
t keat cos bt et t keat sin bt (k  0). Le comportement de x(t) dépend
donc de celui de ces termes.

□ Comportement de eλt lorsque t tend vers l’infini

Trois cas sont ici possibles :


1er cas : si λ < 0 alors eλt ⎯⎯→, 0.
t→∞
2ème cas : si λ > 0 alors eλt ⎯⎯→, + ∞.
t→∞
3ème cas : si λ = 0 alors eλt ⎯⎯→, 1. Remarquons que ce cas
t→∞
est exclu ici. En effet, 0 est racine de P(ּ), autrement dit P(0) = 0,
si et seulement si a0 = 0, ce qui est impossible (car si a0 = 0, alors
l’équation étudiée n’est pas d’ordre n, mais d’ordre n – 1).
Réciproquement :

70
1er cas : si eλt ⎯⎯→, 0, alors λ < 0. En effet, si λ est positif ou
t→∞
nul (voir les 2ème et 3ème cas ci-dessus), alors eλt ne converge pas
vers 0.
2ème cas : si eλt ⎯⎯→, + ∞, alors λ > 0. En effet, si λ est
t→∞
négatif ou nul (voir les 1er et 3ème cas ci-dessus), alors eλt ne tend
pas vers + ∞.
3ème cas : si eλt ⎯⎯→, 1, alors λ = 0, puisque pour toutes les
t→∞
autres valeurs de λ (voir les 1er et 2ème cas ci-dessus), eλt ne
converge pas vers 1.

□ Comportement de t keλt (avec k > 0) lorsque t tend vers l’infini

La fonction t keλt est le produit d’une fonction puissance et d’une


fonction exponentielle. Comme, à l’infini, la fonction exponen-
tielle « l’emporte » sur la fonction puissance, on a ici deux
cas (que l’on peut démontrer de la même façon que dans le para-
graphe précédent) :
1er cas : λ < 0 si et seulement si t keλt ⎯⎯→, 0.
t→∞
2nd cas : λ  0 si et seulement si t keλt ⎯⎯→, + ∞.
t→∞

□ Comportement de t keat cos bt et t keat sin bt (k  0) lorsque t tend


vers l’infini

Rappelons que a est la partie réelle de λ, et que cosinus et sinus


sont toujours compris entre – 1 et 1. On a donc ici deux cas :
1er cas : a < 0 si et seulement si t keat cos bt et t keat sin bt tendent
vers 0 lorsque t tend vers l’infini.
2nd cas : a  0 si et seulement si t keat cos bt et t keat sin bt n’ont pas
de limite lorsque t tend vers l’infini.

□ Comportement de x(t) lorsque t tend vers l’infini

Les cas de convergence (vers une limite finie) rencontrés dans


les trois paragraphes précédents sont peu nombreux. Et on peut les
résumer en une proposition :

71
pour que eλt, t keλt, eat cos bt, eat sin bt, t keat cos bt, et t keat sin bt
convergent vers 0 lorsque t tend vers l’infini, il faut et il suffit que
la partie réelle de λ soit strictement négative.
La solution x(t) étant toujours une combinaison linéaire de
termes de la forme t keλt, t keat cos bt et t keat sin bt (k  0), où a est
la partie réelle de λ, on peut déduire de cette proposition une
condition nécessaire et suffisante de stabilité globale de la valeur
d’équilibre 0 (ou, ce qui revient au même, puisque cet équilibre est
unique, une condition nécessaire et suffisante de stabilité globale
du processus) :
le processus décrit par l’équation [4] — ou la valeur d’équilibre
0 — est globalement stable si et seulement si la partie réelle de
chacune des racines du polynôme caractéristique de cette équation
est strictement négative.

Exemple — Soit le processus décrit par l’équation :


[8] x, ..(t) + 3x, .(t) + 2x(t) = 0.
Le polynôme caractéristique associé à l’équation [8] a deux racines
réelles, – 2 et – 1, strictement négatives (voir page 64). L’équilibre
xe = 0 est donc globalement stable.

□ Ensemble de stabilité de 0 : exemple

Soit l’équation d’ordre 3 :


[17] x, ...(t) + x, ..(t) – 4x, .(t) – 4x(t) = 0.
Les racines ( – 1, 2 et – 2) du polynôme caractéristique de cette
équation (voir page 19) n’étant pas toutes strictement négatives, 0
n’est pas globalement stable. On peut cependant déterminer son
ensemble de stabilité. En effet, la solution générale cette équation
étant (voir page 68) :
x(t) = αe – t + αe2t + αe – 2t, avec αi  IR, i = 1, 2, 3,
il s’ensuit que, pour que x(t) tende vers 0 lorsque t tend vers
l’infini, il faut et il suffit que α  soit nul. Les trajectoires qui
convergent vers 0 sont donc de la forme :
x(t) = αe – t + βe – 2t, avec α  IR et β  IR.
Or, si x(t) = αe – t + βe – 2t, alors x, .(t) = – αe – t – 2βe – 2t,

72
x, ..(t) = αe – t + 4βe – 2t et (x(0),x, .(0),x, ..(0)) = α ( 1,– 1, 1) + β
( 1,– 2, 4).
L’ensemble de stabilité de 0 est donc ici :
S0 = {α( 1,– 1, 1) + β( 1,– 2, 4), α  IR, β  IR}.

Plus généralement, on peut montrer que la dimension de l’ensemble


de stabilité de 0 est égale au nombre de racines de P(ּ) dont la
partie réelle est strictement négative.

b) Cas des équations avec second membre

Reprenons l’équation [16] :


[16] x(n)(t) + an – 1x(n – 1)(t) + … + a1x, .(t) + a0x(t) = c.
Nous avons vu que les solutions x(t) de cette équation sont de la
c
forme h(t) + /a0, où h(t) est solution de l’équation homogène
c
associée à [16], /a0 étant la valeur d’équilibre de [16].
Dans ce cas, la stabilité de x(t) — ou, ce qui revient au même,
c
de la valeur d’équilibre /a0 — dépend donc de celle de h(t) que
c
nous avons étudiée au paragraphe précédent : le processus et /a0
sont globalement stables si et seulement si h(t) tend vers 0 quand t
tend vers l’infini, quelle que soit la condition initiale (autrement
dit si et seulement si les parties réelles de toutes les racines de P(ּ)
sont strictement négatives).

c) Application — le tâtonnement continu

On suppose que les fonctions d’offre et de demande, notées


respectivement s(ּ) et d(ּ), sont de la forme :
d(t) = a – bּp(t) (demande),
s(t) = cּp(t) – d (offre),
où a, b, c et d sont des réels strictement positifs, et que le prix
varie selon la règle :
[18] p, .(t) = k[d(t) – s(t)] (k > 0).

73
En remplaçant, dans l’équation [18], d(t) et s(t) par a – bּp(t) et
cּp(t) – d respectivement, on obtient : p, .(t) = k[a – bּp(t) – cּp(t) + d]
ou, ce qui revient au même :
[19] p, .(t) + k(b + c)p(t) = k(a + d).
Le prix d’équilibre, pe, vérifie k(b + c)pe = k(a + d). D’où :
a+d
pe = .
b+c
L’équation homogène associée à [19] est p, .(t) + k(b + c)p(t) =
0. Son polynôme caractéristique, P(λ) = λ + k(b + c), a pour
unique racine : λ = – k(b + c). En conséquence, sa solution
générale est : h(t) = αe – k(b + c)t, avec α  IR.
La solution générale de [19] est donc :
a+d
p(t) = αe – k(b + c)t + , avec α  IR.
b+c
Conclusion : le tâtonnement — et le prix d’équilibre — sont
globalement stables, puisque, comme b, c et k sont strictement
positifs, – k(b + c) est strictement négatif. Les hypothèses usuelles
sur les pentes des courbes d’offre et de demande (positive pour la
première, négative pour la seconde) suffisent donc ici à assurer la
convergence du tâtonnement continu, et ce, contrairement à ce qui
se passe dans le cas du tâtonnement séquentiel (voir pages 31-32).

B – Conditions de stabilité globale lorsque l’on ne connaît


pas les racines du polynôme caractéristique

Les conditions de stabilité que nous venons d’établir ne sont,


bien entendu, applicables que lorsque l’on connaît les racines de
P(ּ), ce qui n’est pas toujours le cas.
Il existe cependant un certain nombre de critères permettant
d’établir si les parties réelles des racines de P(ּ) sont ou non
strictement négatives, et ce, sans déterminer ces racines. Ce sont
quelques-uns de ces critères que nous allons donner ici.

a) Condition nécessaire et suffisante de stabilité à l’ordre 2

Considérons l’équation [20] :

74
[ 20] x, ..(t) + a1x, .(t) + a0x(t) = c
avec a0 ≠ 0, et où c est une constante.
Pour que le processus décrit par cette équation — ou, ce qui
c
revient au même, la valeur l’équilibre /a0 — soit globalement
stable, il faut et il suffit que les deux coefficients a1 et a0 soient
strictement positifs.
En effet, les parties réelles des racines de P(ּ) sont strictement
négatives si et seulement si a1 et a0 sont strictement positifs.
Pour démontrer cette proposition, rappelons que – a1 est la
somme des racines de P(ּ), et a0, leur produit (voir page 29). Deux
cas sont alors envisageables :
1er cas : les deux racines de P(ּ) sont réelles.
Si elles sont strictement négatives, alors leur somme, – a1, est
strictement négative et leur produit, a0, strictement positif.
Réciproquement, si leur somme est strictement négative, alors
l’une au moins de ces racines l’est aussi, et, si leur produit est
strictement positif, alors ces deux racines sont de même signe. Les
deux propositions a1 > 0 et a0 > 0 assurent donc bien que ces deux
racines sont strictement négatives.
2nd cas : les deux racines de P(ּ) sont non réelles.
Dans ce cas, la condition a1 > 0 est, à elle seule, nécessaire et
suffisante (puisque le produit de deux non réels conjugués est
toujours strictement positif). Notons a + ib et a – ib les deux
racines de P(ּ) ; leur somme est égale à 2a. Il vient alors immé-
diatement que la partie réelle, a, de ces racines est strictement
négative si et seulement si leur somme, 2a, l’est aussi, autrement
dit si et seulement si a1 est strictement positif.

b) Conditions de stabilité à l’ordre n

Reprenons l’équation [16] :


[16] x(n)(t) + an – 1x(n – 1)(t) + … + a1x, .(t) + a0x(t) = c
avec a0 ≠ 0, et où c est une constante.

75
□ Une condition nécessaire de stabilité

Pour que le processus décrit par l’équation [16] — ou, ce qui


c
revient au même, la valeur l’équilibre /a0 — soit globalement
stable, il faut que tous les coefficients de cette équation soient
strictement positifs.
En effet, ces coefficients sont également ceux de son polynôme
caractéristique : P(λ) = λn + an – 1λ n – 1 + … + a1λ + a0. Notons
λ1, …, λn les n racines de P(ּ). On a ainsi :
n
P(λ) = (λ – λ1)(λ – λ2) … (λ – λn) = ,
i=1
, Π(λ – λ ).
i

Si λi est un réel strictement négatif, alors (λ – λi) est un poly-


nôme de degré 1 à coefficients strictement positifs.
−−
Si λi = a + ib est une racine non réelle de P(ּ), alors λi, = a – ib
−−
est également racine de P(ּ) et (λ – λi)(λ – λi, ) = λ2 – 2aλ + a2 + b2.
C’est donc un polynôme de degré 2 à coefficients strictement
positifs lorsque la partie réelle, a, de ces deux racines est stricte-
ment négative.
Si les parties réelles des racines de P(ּ) sont strictement négatives,
on peut donc écrire P(λ) sous la forme d’un produit de polynômes
de degré 1 et/ou de degré 2 à coefficients strictement positifs, ce qui
signifie que P(λ) est lui-même un polynôme à coefficients
strictement positifs.

□ Une condition nécessaire et suffisante : la condition de Routh-


Hurwitz

Pour que les parties réelles des racines de λn + an – 1λn – 1 + … + a1λ + a0


soient strictement négatives, il faut et il suffit que les mineurs
principaux* de la matrice R,
 an − 1 1 0 0 0  0 0
 
 an − 3 an − 2 an − 1 1 0  0 0
a an − 4 an − 3 an − 2 an − 1  0 0 
R =  n −5
        
 
 0 0 0 0 0  a1 a2 
 0  a0 
 0 0 0 0 0

76
soient strictement positifs.

77
II Systèmes de n équations différentielles linéaires
d’ordre 1 à coefficients constants

Les systèmes de n équations différentielles linéaires d’ordre 1 à


coefficients constants sont des systèmes du type :

 x, .1(t) = a11x1(t) + … + a1jxj(t) + … + a1nxn(t) + f1(t)



[1]  x (t) .
= a x
i (t) +
i1 1… + a x (t) + … + a x (t) + f (t)
ij j in n i

 x (t) = a x (t) + … + a x (t) + … + a x (t) + f (t)



.
n n1 1 nj j nn n n

ou, en adoptant l’écriture matricielle :


.
[1] X, (t) = AX(t) + F(t)
où X(t) = (x1(t),,xj(t),,xn(t)), où F(t) = (f1(t),,fi(t),,fn(t)) (fi(ּ) étant
une fonction de IR dans IR), où A est une matrice carrée d’ordre n
dont les éléments sont les coefficients aij, avec aij  IR, i = 1,…, n
.
et j = 1,…, n, et où X, (t) désigne la dérivée de la fonction X(ּ) en
t.
L’inconnue de ce système est la fonction X(t), A et F(t) étant
données (t  IR + ). Le système [1] est évidemment d’ordre 1 et la
condition initiale du processus décrit par [1] est le vecteur X(t0). Si
l’on pose, comme cela est généralement le cas (et comme on le
fera ici), t0 = 0, alors la condition initiale est donnée par le vecteur :
(x1(0),,xi(0),,xn(0))
Dans cette section, nous étudierons les systèmes homogènes, à
savoir les systèmes du type :
.
[2] X, (t) = AX(t).
Remarque : on peut, comme dans le cas des équations de
récurrence, écrire n’importe quelle équation différentielle linéaire
d’ordre n sous la forme d’un système de n équations d’ordre 1.
L’équation d’ordre n :
x(n)(t) + an – 1x(n – 1)(t) + … + aix(i)(t) + … + a1x, .(t) + a0x(t) = 0,

78
.
est, par exemple, équivalente au système X, (t) = AX(t), avec
A=
 – an – 1, – an – 2,… – a1, – a0,1,0,…,0,0,0,1,…,0,0  

  0 0 …  et
 1 0 
X(t) = (x(n – 1)(t),,x, .(t),x(t))

1. Détermination des équilibres

Les équilibres du processus décrit par l’équation [2] sont les


fonctions (ou trajectoires) constantes X(ּ) = Xe, où Xe — que l’on
appellera vecteur d’équilibre ou tout simplement équilibre s’il n’y a

pas d’ambiguïté — est tel que AXe = 0, . En effet, si X(ּ) = Xe,
. →
alors X, (ּ) = 0, . En remplaçant X(ּ) par Xe dans l’équation [2], on

obtient donc bien AXe = 0, .

Xe = 0, est évidemment solution de cette équation, et ce, quel
que soit A. C’est donc un vecteur d’équilibre. Reste à savoir s’il
est ou non unique.

1er cas : Xe = 0, est l’unique vecteur d’équilibre du processus
décrit par l’équation [2].
C’est le cas si et seulement si le rang de la matrice A est égal à n
(autrement dit si cette matrice est régulière) à savoir si et seule-
ment si son déterminant n’est pas nul.

Exemple — Soit le processus décrit par l’équation [3] :


.
[3] X, (t) = AX(t), avec A = ( 1,1,2,0 )
Comme dét(A) = 1(0) – 2(1) = – 2 ≠ 0, le seul vecteur d’équilibre

de ce processus est Xe = 0, .

2nd cas : Xe = 0, n’est pas l’unique vecteur d’équilibre du proces-
sus décrit par l’équation [2].
C’est le cas si et seulement si détA = 0, donc si et seulement si 0
est valeur propre de A.

79
L’ensemble des vecteurs d’équilibre est alors le sous-espace
propre de A associé à 0 (noté aussi kerA), et sa dimension est
égale à la différence entre l’ordre et le rang de A.

Exemple — Soit le processus décrit par l’équation [4] :


.
[4] X, (t) = AX(t), avec A = ( 2, – 2,1, – 1 ).
Comme dét(A) = 2( – 1) – 1( – 2) = 0, alors 0 est valeur propre
de A et l’ensemble E des équilibres du processus décrit par [3] est
le sous-espace propre associé à 0. Comme rangA = 1 (A ≠ 0 et ses
deux colonnes sont linéairement dépendantes), on en déduit que la
dimension de E est égale à 1. L’ensemble E est donc de la forme :
E = {αXe, α  IR},
où Xe est un vecteur propre de A associé à 0.
Les deux colonnes de la matrice A, notées respectivement C1 et

C2, étant telles que C1 + C2 = 0, , on en déduit que (1,1) est un
vecteur propre de A associé à 0. Conclusion : E =
{α(1,1), α  IR}.

2. Résolution

Pour présenter la résolution de l’équation [2],


.
[2] X, (t) = AX(t),
on distinguera deux cas : celui où la matrice A est diagonalisable
(A) et celui où elle ne l’est pas (B).

A – Cas où la matrice A est diagonalisable

a) Forme de la solution

Si A est diagonalisable, alors A = PDP – 1, où D est une matrice


diagonale formée des n valeurs propres de A, et P, la matrice des
vecteurs propres correspondante.
En remplaçant A par PDP – 1 dans l’équation [2] on obtient :
.
[5] X, (t) = PDP – 1X(t).

80
Ce qui donne, en prémultipliant les deux membres de l’équation
.
[5] par P – 1 : P – 1X, (t) = DP – 1X(t). D’où, en posant Y(t) = P –
1X(t), et donc Y, (t) = P – 1X, .(t) (puisque P – 1 est à éléments
.

constants) :
.
[6] Y, (t) = DY(t).
En notant yi(t), i = 1, …, n, les éléments de y(t), et en développant
l’équation [6], on obtient le système de n équations différentielles
homogènes d’ordre 1 :
{y, .1(t) = λ1y1(t),, y, .i(t) = λiyi(t), , y, .n(t) = λnyn(t)
Comme la solution de l’équation y, .i(t) = λiyi(t) est de la forme
yi(t) = αieλit (voir I), celle du système [6] est de la forme :
λ t λt λ t
Y(t) = (α1e 1 ,, αie i ,, αne n )
– 1
De Y(t) = P X(t), on déduit (en prémultipliant les deux membres
de cette équation par P) que X(t) = PY(t). On a donc :
λ t λt λ t
X(t) = P(α1e 1 ,, αie i ,, αne n ), avec P = (P1 … Pn),
soit, de façon plus détaillée :
X(t) = α1eλ1tP1 + … + αieλitPi + … + αneλntPn.
La solution de l’équation [2] est donc
n
[7] X(t) = ,
i=1
, Σα e
i
λitP ,
i

n
les αi étant solution du système X(0) = ,
i=1
, Σα P
i i (que l’on
obtient en remplaçant t par 0 dans [7]).

b) Forme de la solution réelle lorsque A a des valeurs propres


non réelles

Si X(0) est élément de IRn, il en va alors de même pour la solu-


tion de l’équation [2], et ce, même si la matrice A a des valeurs
propres non réelles.
On va déterminer la forme de la solution réelle lorsque A a une
valeur propre non réelle simple. Supposons que A ait deux valeurs
−−
propres non réelles conjuguées λ et λ1, auxquelles

81
−−
correspondent les vecteurs propres P1 et P1, respectivement. La
solution de [2] peut alors s’écrire :
−− −− n
X(t) = α1eλ1tP1 + α2eλ1t, P1, + , , αieλitPi,
i=3
Σ
α1 et α2 étant eux-mêmes conjugués. Pour le montrer, remplaçons t
n
−−
par 0 dans cette égalité : soit X(0) = α1P1 + α2P1, + , , αiPi
i=3
Σ
n
−−−−− −−
[8] et donc X(0), = α1,−−P1, + α2,−−P1 + ,
i=3
, Σ α P ,−−−−−, ou,
i i

−−
ce qui revient au même (puisque X(0)  IRn), X(0) = α1,−−P1,
n
−−−−−
+ α2,−−P1 + , , αiPi,
i=3
Σ [9].
D’où, par soustraction de l’équation [9] à l’équation [8] :
n
−− −−−−−

i=3
Σ
0, = (α1 – α2,−−) P1 + (α2 – α1,−−) P1, + , , ( αiPi – αiPi,
),
ce qui implique (les Pi étant linéairement indépendants) que
α1 = α2,−−et α2 = α1,−−. On peut donc écrire X(t) comme suit :
−− −− n
Σ
X(t) = α1eλ1tP1 + α1,−−eλ1t, P1, + , , αieλitPi,
i=3
ce qui donne, en posant α1 = α + iβ, P1 = P1′ + iP1″, λ1 = a + ib, et
donc eλ1t = eateibt = eat( cos bt + i sin bt) :
n
X(t) = 2eat[(α cos bt – β sin bt)P1′ – (β cos bt + α sin bt)P1″] + ,
i=3
, Σ
αieλitPi
ou encore :
n
X(t) = 2eat[cos bt(α P1′ – βP1″) – sin bt(βP1′ + α P1″)] + ,
i=3
, Σ
αieλitPi.

c) Exemples

Exemple 1 — Soit le processus décrit par :

82
.
[10] X, (t) = AX(t), avec A = ( 1,1, 0,0,2, 0,2,1,– 1 )
Les valeurs propres de A sont 1, 2 et – 1 (voir page 44). Comme
elles sont distinctes, A est diagonalisable. En outre (1,0,1), (1,1,1),
et (0,0,1) sont des vecteurs propres de A associés respectivement à
1, à 2 et à – 1. La solution de l’équation [10] est donc de la forme :
X(t) = α1e t (1,0,1) + α2e2t (1,1,1) + α3e – t (0,0,1)

Exemple 2 — Soit le processus défini par :


.
[11] X, (t) = AX(t), avec A = ( 2,2, 0,– 1,0, 0, 2,1,– 1 )
Les valeurs propres de A sont – 1, 1 + i et 1 – i (voir page 45).
Comme elles sont distinctes, A est diagonalisable. En outre,
(0,0,1), Erreur ! et Erreur ! sont des vecteurs propres de A
associés respectivement à – 1, à 1 + i et à 1 – i. La solution réelle
de l’équation [11] est donc de la forme :
X(t) = α1e – t(0,0,1) + 2et(α2 cos t – α3 sin t)Erreur ! + 2et(α3 sin t + α2
cos t)Erreur !

B – Cas où la matrice A n’est pas diagonalisable

a) Forme de la solution

Si A n’est pas diagonalisable, alors on peut écrire A = QJQ – 1,


où J est une forme réduite de Jordan, autrement dit une matrice de
 1 c1 
 
   0 
  c 
la forme  i i  , avec ci = 0 ou ci = 1, où
   
 
 0  n − 1 cn − 1 
  n 

λ1, ..., λi, ..., λn sont les n valeurs propres de A et où
Q = (Q1 ... Qi ... Qn), Q1,..., Qi,..., Qn étant n vecteurs de Jordan
linéairement indépendants associés respectivement à λ1,..., λi,..., et
λn. On peut donc remplacer A par QJQ – 1 dans l’équation [2],
pour obtenir :

83
.
[12] X, (t) = QJQ – 1X(t),
. .
ce qui donne, en posant Z(t) = Q – 1X(t), et donc Z, (t) = Q – 1X, (t)
(Q – 1 étant à éléments constants), et en remplaçant dans [12] :
.
[13] Z, (t) = JZ(t),
ou encore, en notant zi(t), i = 1, …, n, les éléments de Z(t) :
[13]

z1, (t) = λ1z1(t) + c1z2(t)


. .
, ,zi, (t) = λizi(t) + cizi + 1(t)

 z.n – 1(t) = λn – 1zn – 1(t) + cn – 1zn(t)
 z.n(t) = λnzn(t)
Le système [13] est un système de n équations différentielles
linéaires d’ordre 1 avec ou sans second membre, que l’on peut
résoudre en commençant par la dernière équation. Celle-ci est une
équation différentielle linéaire homogène d’ordre 1, dont la solu-
tion est zn(t) = zn(0)eλnt.
On peut alors résoudre la n – 1ème équation du système [13] :
.
z, n – 1(t) – λn – 1zn – 1(t) = cn – 1zn(0)etλn, qui est une équation diffé-
rentielle linéaire d’ordre 1. Deux cas sont ici possibles :
— soit cn – 1 = 0, l’équation est homogène et sa solution est :
zn – 1(t) = zn – 1(0)etλn – 1;
— soit cn – 1 = 1, il y a résonance et la solution de l’équation est :
zn – 1(t) = (zn(0)t + zn – 1(0))etλn, puisqu’alors λn – 1 = λn.
Muni de cette solution, on peut alors résoudre la n – 2ème équa-
tion du système [13], en zn – 2(t), et ainsi de suite, jusqu’à la
première équation. Une fois trouvé Z(t), il suffit alors de le pré-
multiplier par Q pour obtenir X(t), puisque Z(t) = Q – 1X(t).

b) Exemple

Soit le processus décrit par :


.
[14] X, (t) = AX(t), avec A = ( 2,1,1,0,5,0,0,1,5 ).
On a vu (page 49) que cette matrice a une valeur propre simple,
2, et une valeur propre double, 5, et que le sous-espace propre
associé à 5 est de dimension 1. La matrice A n’est donc pas
84
diagonalisable. On a également vu que P1 = (1,0,0) est vecteur
propre de A associé à 2, et que P2 = (1,0,3) et Q1 = ( 0, 3,– 2) sont
respectivement vecteur propre et vecteur de Jordan de A associé à
5. La solution de l’équation [14] est donc X(t) = QZ(t), où Q est
la matrice (P1 P2 Q1), et Z(t), la solution du système [15] :
.
[15] Z, (t) = JZ(t),
(que l’on obtient en remplaçant X(t) par QZ(t) dans l’équation
[14]), avec J = ( 2,0,0,0,5,1,0,0,5 ). De [15], en posant
z1(t)
( )
Z(t) = z (t),z (t) , on déduit alors le système :
2 3

 z, .1(t) = 2z1(t),
 .
 z, 2(t) = 5z2(t) + z3(t), z.3(t) = 5z3(t)
De la dernière équation de ce système, on déduit z3(t) = z3(0)e5t.
En remplaçant z3(t) par z3(0)e5t dans la deuxième équation, on
obtient l’équation [16] z, .2(t) – 5z2(t) = z3(0)e5t. C’est une équation
différentielle linéaire d’ordre 1 avec second membre et résonance.
Sa solution est donc la somme de la solution de l’équation homo-
gène associée (h(t) = z2(0)e5t) et d’une solution particulière de [16] de
la forme p(t) = αte5t. De p(t) = αte5t, on déduit p, .(t)= αe5t + 5αte5t,
et, en remplaçant dans [16], α = z3(0). La solution de [16] est
donc z2(t) = [z2(0) + z3(0)t]e5t.
Enfin, de la première équation, on déduit z1(t) = z1(0)e2t.
On a donc Z(t) = (z1(0)e2t,[z2(0) + z3(0)t]e5t,z3(0)e5t)
Comme X(t) = QZ(t), on a X(t) = (P1 P2
Q1)(z1(0)e2t,[z2(0) + z3(0)t]e5t,z3(0)e5t).
La solution de [14] est donc :
X(t) = z1(0)e2t (1,0,0) + [z2(0) + z3(0)t]e5t (1,0,3) + z3(0)e5t ( 0, 3,– 2)

3. Étude de la stabilité des solutions d’un système de n


équations différentielles linéaires homogènes

Reprenons le système [2] :


.
[2] X, (t) = AX(t).
Nous avons vu que, à chaque condition initiale, correspond une
trajectoire unique solution de ce système. La question abordée
85
dans ce paragraphe est de savoir si certaines de ces trajectoires
convergent vers un équilibre, et, si oui, lesquelles.

A – Conditions de stabilité lorsque l’on connaît les valeurs


propres de la matrice

a) Cas où la matrice A est diagonalisable

On a vu que, lorsque A est diagonalisable, les solutions du


n
système [2] peuvent s’écrire sous la forme X(t) = ,
i=1
, Σα e
i
λitP ,
i

où λi est valeur propre de A et où Pi est un vecteur propre de A


associé à λi. Comme dans le cas des équations d’ordre n, le
comportement de X(t) dépend donc de celui de eλit. Or on a vu
que :
• eλit ⎯⎯→, 0 si et seulement si la partie réelle de λi est
t→∞
strictement négative ;
• eλit ⎯⎯→, 1 si et seulement si λi = 0 ;
t→∞
• eλit ne converge pas vers une limite finie dans tous les autres cas.
De ces trois propositions, on peut déduire des conditions néces-

saires et suffisantes de stabilité globale de 0, et du processus.

□ Condition nécessaire et suffisante de stabilité globale de 0,
→ →
L’équilibre 0, est globalement stable (ou  X0, Xt ⎯⎯→, 0,
t→∞
) si et seulement si les parties réelles des valeurs propres de A sont
strictement négatives.

Exemple — Le vecteur d’équilibre 0, du processus décrit par :
.
[17] X, (t) = AX(t), avec
A = ( – 3, 1, 1, 0,– 1, 0, 0, 1,– 2 ),
est globalement stable. Les trois valeurs propres de A sont en
effet : – 1, – 2 et – 3.

86
□ Condition nécessaire et suffisante de stabilité globale du
processus

Le processus décrit par le système [2] est globalement stable si et


seulement si :

— l’équilibre 0, est globalement stable ou
— toutes les valeurs propres de A ont une partie réelle strictement
négative sauf une qui est égale à 0.

Exemple — Le processus décrit par :


.
[18] X, (t) = AX(t), avec
A = ( – 1, 1, 1, 0,– 2,– 1, 1, 1, 0 ),
est globalement stable. Les trois valeurs propres de A sont en effet :
0, – 1 et – 2.

□ Ensemble de stabilité de 0,

L’ensemble de stabilité de l’équilibre 0, est le sous-espace vecto-
riel de IRn engendré par les vecteurs propres associés aux valeurs
propres dont la partie réelle est strictement négative1.

b) Cas où la matrice A n’est pas diagonalisable

On a vu que, lorsque A n’est pas diagonalisable, les solutions du


n
système [2] peuvent s’écrire sous la forme X(t) = ,
i=1
, Σ
pi(t)eλitQi, où λi est valeur propre de A, où Qi est un vecteur propre
ou un vecteur de Jordan de A associé à λi et où pi(t) est un
polynôme. Ici le comportement de X(t) dépend donc de celui de
pi(t)eλit ; pi(t)eλit étant le produit d’une fonction polynôme et d’une
fonction exponentielle. Comme, lorsque t tend vers l’infini, la
fonction exponentielle « l’emporte » sur la fonction polynôme, on
a ici trois cas :

1 La démonstration de ce théorème est similaire à celle des pages 53-54.

87
1er cas : (λi) < 0 si et seulement si pi(t)eλit ⎯⎯→, 0.
t→∞
2ème cas : λi = 0. On a donc pi(t)eλit = pi(t). Dans ce cas pi(t)eλit tend
vers une limite finie — la constante ℓ — lorsque t tend vers l’infini
si et seulement si pi(t) est un polynôme de degré 0 (autrement dit
si et seulement si pi(ּ) = ℓ). Or ceci est le cas pour tous les termes
de la forme pi(t)e0t si et seulement si la dimension du sous-espace
propre de A associé à 0 est égale à la multiplicité algébrique de 0.
3ème cas : pour toutes les autres valeurs de λi, pi(t)eλit ne converge
pas vers une limite finie.
Il s’ensuit que :

le vecteur d’équilibre 0, est globalement stable si et seulement si
les parties réelles des valeurs propres de A sont strictement
négatives,
et que
le processus décrit par le système [2] est globalement stable si et
seulement si :

— 0, est globalement stable ou
— toutes les valeurs propres de A ont une partie réelle strictement
négative sauf une qui est égale à 0, la dimension du sous-espace
propre qui lui est associée devant être égale à la multiplicité algé-
brique de 0.


B – Conditions de stabilité de 0, lorsque l’on ne connaît
pas les valeurs propres de la matrice

Nous considérerons ici les systèmes homogènes du type :


.
[2] X, (t) = AX(t)
Les conditions de stabilité que nous avons établies dans le para-
graphe précédent ne sont, bien entendu, applicables que lorsque
l’on connaît les valeurs propres de A. Nous avons notamment vu
que toutes les trajectoires du processus décrit par [2] convergent
→ →
vers 0, (0, est globalement stable) lorsque les parties réelles des
valeurs propres de A sont strictement négatives. Dans ce cas, on
dit aussi que la matrice A est différentiellement stable — ou d-
stable.

88
Il existe un certain nombre de critères permettant d’établir si A
est ou non d-stable, et ce, sans déterminer ses valeurs propres. Ce
sont quelques-uns de ces critères que nous allons ici donner.

a) Conditions nécessaires de stabilité différentielle de A

Pour qu’une matrice A soit d-stable, il faut que sa trace soit


strictement négative.
Cette première condition est évidente puisque la trace de A est
égale à la somme des parties réelles de ses valeurs propres1.

Pour qu’une matrice A d’ordre n soit d-stable, il faut que l’on ait :
( – 1)ndét(A) > 0.
En effet, si les n valeurs propres d’une matrice ont une partie
réelle strictement négative, alors leur produit — autrement dit le
déterminant de A — est positif si n est pair et négatif si n est
impair2. Il s’ensuit que le déterminant de A est du signe de ( – 1)n
et, en conséquence, que l’on a : ( – 1)ndét(A) > 0.

Pour qu’une matrice A d’ordre n soit d-stable, il faut que tous les
coefficients du polynôme ( – 1)ndét(A – λI) soient strictement
positifs.
Si l’on note λ1,… , λn les n valeurs propres de A — autrement
dit les n racines de dét(A – λI) —, on a en effet :
dét(A – λI) = Erreur !,
et donc : dét(A – λI) = ( – 1)n Erreur !,
n
ou encore ( – 1) dét(A – λI) = Erreur !.
Deux cas sont alors possibles : soit λi est un réel strictement négatif,
soit λi est une racine non réelle, mais dont la partie réelle est
strictement négative. Dans le premier cas (λ – λi) est un polynôme
−−
à coefficients strictement positifs. Dans le second, λi, est aussi
−−
racine de dét(A – λI) et (λ – λi)(λ – λi, ) est un polynôme à
coefficients strictement positifs.

1 Rappelons que la somme de deux complexes conjugués, z et z,−, est égale à 2(z).
2 Rappelons que le produit de deux complexes conjugués, a + ib et a – ib, est le réel
positif a2 + b2.

89
Dans tous les cas, ( – 1)n dét(A – λI) est le produit de polynômes
à coefficients strictement positifs. C’est donc lui-même un poly-
nôme à coefficients strictement positifs.

b) Conditions nécessaires et suffisantes de stabilité


différentielle de A

□ À l’ordre 2

Pour qu’une matrice A d’ordre 2 soit d-stable, il faut et il suffit


que sa trace soit strictement négative et son déterminant, stricte-
ment positif.
Les conditions nécessaires viennent d’être démontrées. Démon-
trons la condition suffisante. Pour ce faire, notons λ1 et λ2 les deux
valeurs propres de A.
Si dét(A) > 0, alors λ1λ2 > 0 : λ1 et λ2 sont soit réelles de même
signe, soit non réelles.
Si tr(A) < 0, alors λ1 + λ2 < 0 : l’une au moins de ces deux racines
a une partie réelle strictement négative.
Ces deux conditions réunies assurent donc bien que λ1 et λ2 sont
réelles strictement négatives ou non réelles mais dont la partie
réelle est strictement négative1.

□ À l’ordre n — La condition de Routh-Hurwitz

Pour que les parties réelles des valeurs propres de A, autrement dit
n
des racines de dét(A – λI) = ( – 1) (λn + an – 1λ n – 1 + … + a1λ + a0),
soient strictement négatives, il faut et il suffit que les mineurs
principaux de la matrice R,

1 Rappelons, en effet, qu’elles sont ici nécessairement conjuguées. Elles ont donc la
même partie réelle.

90
 an − 1 1 0 0 0  0 0
 
 an − 3 an − 2 an − 1 1 0  0 0
a an − 4 an − 3 an − 2 an − 1  0 0 
R =  n −5
        
 
 0 0 0 0 0  a1 a2 
 0  a0 
 0 0 0 0 0
soient strictement positifs.

c) Condition suffisante de stabilité différentielle de A

On dit que la matrice A = (aij), i = 1,…, n, j = 1,…, n, est à


diagonale négative dominante si aii < 0, i = 1,…, n et s’il existe n
réels strictement positifs kj, tels que l’on ait :
[19]
j≠i
, Σk |a | < k |a |.
j ij i ii

Pour que la matrice A soit d-stable, il suffit qu’elle soit à diago-


nale négative dominante.
Démonstration
Soit une matrice A à diagonale négative dominante. Notons λ,
une valeur propre quelconque de cette matrice, et P = (x1, ,xn),
l’un de ses vecteurs propres associés. On a donc AP = λP ou, ce
qui revient au même :
n
,
j=1
, Σa x = λx ,  i, i = 1,..., n,
ij j i

(n’est développée ici que la ième


ligne du système), ou encore, en
ôtant aii xi aux deux membres de cette équation :
[20]
j≠i
, Σ a x = (λ – a )x ,  i, i = 1,..., n.
ij j ii i

De [20], il vient, puisque les réels kj, j = 1,..., n, sont strictement


positifs :

j≠i
, Σ a k xk = (λ – a )k xk ,  i, i = 1,..., n,
ij j
j

j
ii i
i
i

et, en passant aux modules :


Erreur ! = Erreur !,  i, i = 1,..., n.

91
D’où (le module d’une somme étant inférieur ou égal à la somme
des modules, et le module d’un produit étant égal au produit des
modules) :
[21]
j≠i
, ΣErreur ! ≥ Erreur ! k Erreur !,  i, i = 1,...,
i

n.
Notons Erreur !le plus grand des rapports Erreur !. De [21], on
déduit :
[22]
j≠i
, ΣErreur ! ≥ Erreur ! k Erreur !,  i, i = 1,...,
i

n,
et donc, lorsque i = m (à savoir pour la mème ligne du système) :

j≠m
, ΣErreur ! ≥ Erreur ! k m Erreur !,
ou encore, en divisant les deux membres de l’inéquation par
Erreur ! :
[23]
j≠m
, Σa mj kj ≥ λ – amm km.
De [23] et de [19] (puisque la matrice A est à diagonale négative
dominante) appliquée à i = m, il découle :
amm km > λ – amm km,

et donc : amm > λ – amm ,

ou, puisque amm < 0 : – amm > λ – amm , ce qui donne, en posant

λ = a + ib, et donc λ – amm = (a – amm) + ib ≥ a – amm :

[24] – amm > a – amm .


Comme a et amm sont des réels, on déduit de [24] que : a < 0. La
partie réelle de λ, une valeur propre « quelconque » de A, est donc
bien strictement négative.

Exemple — La matrice
A = ( – 3, 1, 1, 0,– 1, 0, 0, 1,– 2 ) est à diagonale
négative dominante. En effet, d’une part, les termes de sa diago-
nale principale sont tous strictement négatifs et, d’autre part, on a :
| – 3| > |1| + |1|, | – 1| > |0| + |0| et | – 2| > |0| + |1|.
92
C – Le diagramme de phases

Les évolutions continues linéaires décrites par des systèmes


d’ordre 1 du type :
.
[2] X, (t) = AX(t),
où A est une matrice carrée d’ordre 2, peuvent être représentées
graphiquement au moyen d’un diagramme de phases.

a) Présentation

Supposons, par exemple, que la matrice A soit la suivante :


A = ( 1, – 4, – 1,1 )
Le système [2] est alors équivalent au système :
{ x, .1(t) = x1 – 4x2, x, .2(t) = – x1 + x2,
La fonction x1(ּ) est constante lorsque x, .1(ּ) = 0 donc lorsque
x2(ּ) = Erreur !, ou encore, pour simplifier, lorsque x2 = Erreur !.
Cette droite que l’on peut représenter dans le plan (x1,0,x2) (cf.
figure II.1) divise ce dernier en deux demi-plans :
• un premier demi-plan situé au dessus de la droite, dans lequel
x2 > Erreur ! et donc dans lequel la fonction x1(ּ) est décroissante,
ce que l’on représente par une flèche horizontale (puisque x1 est
sur l’axe des abscisses) vers la gauche (puisque, dans cette zone,
x1 est décroissante) ;
• un second demi-plan situé en dessous de la droite, dans lequel
x2 < Erreur !, et donc dans lequel la fonction x1(ּ) est croissante,
ce que l’on représente par une flèche horizontale vers la droite.

FIGURE II.1

93
La fonction x2(ּ) est, quant à elle, constante lorsque x, .2(ּ) = 0
donc lorsque x2(ּ) = x1(ּ), ou encore, pour simplifier, lorsque x2 = x1.
Cette droite que l’on peut représenter dans le plan (x1,0,x2) (cf.
figure II.1) divise ce dernier en deux demi-plans :
• un premier demi-plan situé au-dessus de la droite, dans lequel
x2 > x1 et donc dans lequel la fonction x2(ּ) est croissante, ce que
l’on représente par une flèche verticale (puisque x2 est sur l’axe
des ordonnées) vers le haut (puisque, dans cette zone, x2 est crois-
sante) ;
• un second demi-plan situé en dessous de la droite, dans lequel
x2 < x1 et donc dans lequel la fonction x2(ּ) est décroissante, ce que
l’on représente par une flèche verticale vers le bas.
Le point situé à l’intersection de ces deux droites est l’équilibre
du processus. En ce point, en effet, on a x, .1(ּ) = 0 et x, .2(ּ) = 0. (Le

seul vecteur d’équilibre du processus est donc 0, .)
Autour de ce point, se trouvent quatre zones : la zone I dans laquelle
x1 et x2 sont décroissantes, la zone II dans laquelle x1 est croissante
et x2, décroissante, la zone III dans laquelle x1 et x2 sont croissantes,
et la zone IV dans laquelle x1 est décroissante et x2, croissante.
L’équilibre semble ici être de type point-selle. En effet, si la
condition initiale est dans la zone II ou IV, la trajectoire s’éloigne
de l’équilibre. En revanche, les trajectoires issues de conditions
94
initiales des zones I et III peuvent éventuellement converger vers

0, . Ceci est confirmé par le calcul des valeurs propres de A, qui

sont – 1 et 2. L’ensemble de stabilité de 0, est donc le sous-
espace propre de A associé à – 1, à savoir :
S→0 = {α(2,1), α  IR}
Il s’ensuit que, si la condition initiale est sur la droite d’équation
x
y = /2 (droite en pointillés fléchée sur la figure II.1), alors la

trajectoire converge vers 0, . En revanche, si la condition initiale
n’est pas sur cette droite, alors la trajectoire diverge (ceci est, par
exemple, le cas des trajectoires issues de X(0) et X’(0) indiquées

sur la figure II.1). La convergence vers 0, est donc ici plutôt
l’exception que la règle.

b) Limites du diagramme de phases

L’étude graphique menée au moyen d’un diagramme de phases


ne peut en aucun cas constituer une démonstration. Elle peut tout
au plus permettre de faire des conjectures (comme dans l’exemple
de la page précédente). Cependant, ces conjectures ne sont pas
fiables. Des diagrammes de phases qui paraissent similaires peuvent
en effet représenter des situations fort différentes. Ceci est par
exemple le cas des diagrammes des figures II.2.A et II.2.B.
Le diagramme de phases de la figure II.2.A est en effet celui du
processus décrit par :
.
[25] X, (t) = AX(t),

où A = ( – 1,– 1,8,2 ). L’unique équilibre de ce processus est 0,
. Or, comme dét(A) = 6 et tr(A) = 1, les deux valeurs propres de A
ont une partie réelle strictement positive : la seule trajectoire qui
→ →
converge vers 0, est donc celle dont la condition initiale est 0, .

FIGURE II.2.A

95
Le diagramme de phase de la figure II.2.B est, quant à lui, celui
du processus décrit par :
.
[26] X, (t) = AX(t),

où A = ( 2,2,– 1,– 2 ). Ici, l’équilibre 0, est un point-selle. En
effet, comme dét(A) = – 2, la matrice A a une racine réelle stric-
tement positive et une racine réelle strictement négative.
Dans certains diagrammes de phases, la situation est encore plus
obscure. Soit, par exemple, le processus décrit par :
.
[27] X, (t) = AX(t), où A = ( 1 + ε, 1,– 3,– 1 ).

FIGURE II.2.B

Pour ε = 10 – 6 et pour ε = – 10 – 6, le diagramme de phases est


celui de la figure II.3.A. Pourtant, comme dét(A) = 2 – ε et
tr(A) = ε, ces deux valeurs de ε impliquent des conclusions radi-

calement différentes en ce qui concerne la stabilité de 0, :

— si ε = – 10 , alors dét(A) > 0 et tr(A) < 0 : les parties réelles
6

des deux valeurs propres de A sont strictement négatives et



l’équilibre 0, est globalement stable. En fait, les deux valeurs

96
propres de A sont non réelles et les trajectoires solutions de [27]

forment des spirales qui se rapprochent de plus en plus de 0, (du
type de celle de la II.3.B.) ;
— si ε = 10 – 6, alors dét(A) > 0 et tr(A) > 0 : les parties réelles des
deux valeurs propres de A sont strictement positives. L’équilibre

0, n’est donc pas globalement stable et la seule trajectoire qui
→ →
converge vers 0, est celle dont la condition initiale est 0, . Ici,
les deux valeurs propres de A sont non réelles et les trajectoires
solutions de [27] forment des spirales qui s’éloignent de plus en

plus de 0, (du type de celle de la figure II.3.C).
Un diagramme de phases du type de celui de la figure II.3.A ne
permet donc de tirer aucune conclusion concernant la stabilité de
l’équilibre.

FIGURE II.3.A

FIGURE II.3.B FIGURE II.3.C

97
98
CHAPITRE III
ÉVOLUTIONS NON LINÉAIRES ET LINÉARISATION

En économie, et notamment en macroéconomie, les relations


envisagées sont parfois linéaires, soit parce qu’elles sont déduites
de relations comptables (elles-mêmes linéaires), soit parce que
c’est la forme la plus simple (lorsqu’elle n’est pas incompatible
avec la théorie évidemment).
Lorsque ce n’est pas le cas, mais que l’on est en présence de
rapports ou de produits de variables (le salaire réel W/P, l’équation
quantitative Mv = PQ, ou le produit q1ּ...ּqn dans certaines fonc-
tions de production ou d’utilité), on peut parfois se ramener au cas
linéaire en considérant le logarithme de ces expressions : en posant,
par exemple, lnW = w et lnP = p, on obtient lnW/P = w – p. Les
équations ainsi transformées sont alors « log-linéaires », c’est-à-
dire linéaires par rapport aux logarithmes des variables (ou de
certaines d’entre elles).
Une telle démarche n’est cependant pas toujours possible. Dans
le cas de systèmes d’ordre 1 ou 2, on peut alors s’aider d’une
étude graphique du système non linéaire (c’est notamment ce que
nous présenterons dans les deux premières sections de ce chapitre,
en abordant successivement (I) le cas séquentiel et (II) le cas
continu. Celle-ci peut être complétée par une étude locale que l’on
réalise sur un système linéarisé (c’est ce que nous présenterons en
III) et qui est valable pour un système d’ordre quelconque.

I Le cas séquentiel

Le temps est ici considéré comme une succession de périodes de


durées égales, désignées par la lettre t, où t est un entier naturel.
L’évolution d’une variable (le niveau de la production, par exemple)
prend donc la forme d’une suite de réels x0, x1,… xt,... (où xt désigne
la valeur prise par la variable à la période t), et elle est représentée
par une relation du type :
[1] xt = f(xt – 1, xt – 2,…, xt – n),
99
ce qui signifie que la valeur prise par la variable à la période t
dépend de sa valeur aux n périodes précédentes. La seule diffé-
rence avec le chapitre I provient de ce que la fonction f(ּ) n’est plus
nécessairement linéaire.
Lorsque l’on s’intéresse à l’évolution simultanée de plusieurs
variables (production, consommation, masse monétaire…), on
n’est plus en présence d’une suite de réels x0, x1,…, xt ,…, mais de
vecteurs X0, X1,...., Xt,..., où Xt = (x1t,,xit,,xnt) désigne l’état du
système à la période t (xit désignant la valeur prise par la ième
variable à la période t). Le processus est alors décrit par une
relation du type :
[2] Xt = f(Xt – 1, Xt – 2,…, Xt – n).
Et comme Xt – 1 dépend lui-même de ce qui s’est passé en t – 2,
etc., on peut toujours se ramener à une relation du type :
[3] Xt = F(Xt – 1),
quitte à considérer un système élargi (comportant un plus grand
nombre de variables). Ici la condition initiale, X0, détermine son
état à la période suivante, X1 — puisque X1 = F(X0) —, qui déter-
mine à son tour X2 — puisque X2 = F(X1) —, et ainsi de suite…
sous réserve, évidemment, que ces valeurs soient définies (ce qui
n’est pas toujours le cas lorsque F(ּ) n’est pas linéaire).
La question qui se pose alors est celle du comportement de la
suite (Xt) — et notamment celle de sa convergence vers un vecteur
d’équilibre du système. Si F(ּ) est continue, et si l’on note Xe ce
vecteur d’équilibre, il découle du fait que Xt et Xt – 1 tendent tous
deux vers Xe lorsque t tend vers l’infini que l’on a :
[4] Xe = F(Xe).
Le vecteur Xe est donc un point fixe de F(ּ) (si la condition initiale
du processus est Xe, alors celui-ci demeure indéfiniment en ce
point — autrement dit Xt = Xe,  t  IN).
En règle générale, le comportement de la suite (Xt) est d’une très
grande complexité. Dans le cas où l’on a une ou deux variables,
une étude graphique peut permettre de se faire une idée de ce
comportement. Nous allons maintenant voir comment, en exami-
nant successivement le cas d’une (1) puis de deux variables (2).

100
1. Étude graphique dans le cas d’une seule variable

Soit une variable, à valeur dans IR, dont l’évolution est décrite
par la relation de récurrence d’ordre 1 :
[5] xt = f(xt – 1).

A – Étude graphique

Le processus décrit par [5] peut être représenté graphiquement


dans un diagramme de phases. Pour ce faire, on trace tout d’abord
le graphe de f(ּ) et la première bissectrice, dans un plan où xt – 1
figure en abscisse et xt, en ordonnée (voir figures III.1.A et III.1.B).
Les points d’intersection entre ces deux courbes permettent
alors de déterminer les valeurs d’équilibre du processus. Ils ont, en
effet, pour coordonnées (xt – 1, f(xt – 1)) — puisqu’ils sont sur le
graphe de f(ּ) —, avec f(xt – 1) = xt – 1 — puisqu’ils sont également
sur la première bissectrice. Dans le cas des figures III.1. A et
III.1.B, les courbes se coupent en deux points : E1 et E2. On a donc
deux valeurs d’équilibre : xE1 et xE2 (voir figure III.1.A).
Comme dans le cas linéaire, la trajectoire empruntée dépend de
la condition initiale retenue. Ainsi, dans la figure III.1.A, à partir
de la condition initiale x0, on détermine x1, et ce, grâce au graphe
de f(ּ) (puisque, par définition, x1 = f(x0)). En utilisant la première
bissectrice, on reporte alors la valeur x1 de l’axe des ordonnées sur
l’axe des abscisses. Le point de cette bissectrice ayant x1 pour
ordonnée a en effet (par définition de la première bissectrice)
également x1 pour abscisse. Une fois x1 reporté sur l’axe des
abscisses, on peut réitérer l’opération précédente, mais cette fois-ci
avec x1 : grâce au graphe de f(ּ), on détermine x2 (puisque x2 = f(x1)),
avant de le reporter sur l’axe des abscisses en utilisant la première
bissectrice. Et ainsi de suite.
Les flèches indiquent le sens du « mouvement ». Dans le cas de
la figure III.1.A, on peut faire la conjecture que la suite converge
vers l’équilibre xE1. Cette conjecture vaut en fait pour toute valeur
initiale x0 comprise entre xE1 et xE2 (la suite étant alors décroissante
et minorée). En revanche, si x0 est strictement supérieure à xE2, la

101
situation est plus délicate, comme on le voit sur la figure III.1.B (la
suite semble alors tendre vers l’infini).

FIGURE III.1.A

FIGURE III.1.B

102
B – Exemple

Un cas étudié dans divers types de modèles économiques (voir,


par exemple, Baumol et Benhabib [1989]) est celui où le système
dynamique est défini par l’équation :
[6] xt = αxt – 1(1 – xt – 1),
où α est un paramètre strictement positif.
Les valeurs d’équilibre de ce processus sont les réels xe vérifiant :
xe = αxe(1 – xe). On a donc deux valeurs d’équilibre :
xE1 = 0 et xE2 = Erreur !.

FIGURE III.2.A

Le processus dépend, bien entendu du paramètre α. Selon les


valeurs de ce dernier, on se trouve dans des situations dont certaines
sont décrites dans la figure III.2 Ainsi, dans le cas III.2.A, où α est
compris entre 1 et 2, on est en présence de suites monotones, qui
convergent vers xe21.

1 Dans ce cas, en effet, la pente du graphe de f(ּ) est positive au point où celui-ci
coupe la première bissectrice.

103
Dans le cas III.2.B, où α est compris entre 2 et 3, les suites
oscillent, mais convergent également vers xe21.

FIGURE III.2.B

FIGURE III.2.C

1 Dans ce cas, en effet, au point où le graphe de f(ּ) coupe la première bissectrice, la


pente de celui-ci est négative et strictement inférieure à 1 en valeur absolue.

104
Dans le cas III.2.C (α = 3), la trajectoire ne converge pas ; elle tend
vers une trajectoire cyclique (qui oscille entre deux valeurs1). La
figure III.2.D (α > 3), suggère, quant à elle, une évolution de type
« chaotique » — où il n’y a aucune forme de cycle et où les
évolutions peuvent radicalement changer suite à une modification
« infinitésimale » de la valeur initiale x0 (pour plus de détails,
voir, par exemple, Baumol et Benhabib [1989]). Grandmont
[1985] fait également apparaître des évolutions de ce type.

FIGURE III.2.D

2. Étude graphique dans le cas de deux variables

Soit le processus décrit par le système d’ordre 2 :


[8] Xt = F(Xt – 1),
où Xt = (x1t,x2t) et où F(ּ) = (f1(ּ),f2(ּ)).

En développant ce système, on obtient :

1 Au point où le graphe de f(ּ) coupe la première bissectrice, la pente de celui-ci est


égale à – 1.

105
[9] {x1t = f1(x1t – 1 , x2t – 1),x2t = f2(x1t – 1 , x2t – 1)
Ici encore, on peut faire des conjectures (certes moins précises)
sur le processus, et ce, au moyen d’un diagramme de phases.
Comme on s’intéresse à l’évolution des variables, on va ici
considérer les variations x1t – x1t – 1 et x2t – x2t – 1. Pour ce faire, on
réécrit le système [9], qui devient :
 x1t – x1t – 1 = f1(x1t – 1 , x2t – 1) – x1t – 1
[10] 
x2t – x2t – 1 = f2(x1t – 1 , x2t – 1) – x2t – 1
ou, en posant gi(x1t – 1 , x2t – 1) = f i(x1t – 1 , x2t – 1) – xit – 1, i = 1, 2 :
[11]

{x1t – x1t – 1 = g1(x1t – 1 , x2t – 1),x2t – x2t – 1 = g2(x1t – 1 , x2t – 1)


Dans un système d’axes ayant x1 en abscisses et x2 en ordon-
nées, on trace alors la courbe d’équation g1(x1, x2) = 0. Comme,
par définition de g1(ּ), on a x1t – x1t – 1 = g1(x1t – 1 , x2t – 1), il s’ensuit
que les points de cette courbe sont tels que x1t – x1t – 1 = 0 : x1 ne
varie pas. Cette courbe partage en outre le plan en deux régions :
• une première région où l’on a g1(x1 , x2) > 0, et où, en consé-
quence, par définition de g1(ּ), x1t – x1t – 1 > 0 : la suite (x1t) y est
donc croissante, ce que l’on représente par une flèche horizontale
(puisque x1 est sur l’axe des abscisses) vers la droite (puisque x1
est croissante). Dans l’exemple de la figure III.3, cette région est
celle située au dessus de la courbe ;
• une seconde région où g1(x1 , x2) < 0, donc où x1t – x1t – 1 < 0, et
où, en conséquence, la suite (x1t) est décroissante, ce que l’on
représente par une flèche horizontale vers la gauche.
On procède de la même façon avec la seconde variable, en
traçant la courbe d’équation g2(x1, x2) = 0. Les points de cette
courbe, par définition de g2(ּ), sont tels que x2t – x2t – 1 = 0 : x2 ne
varie pas. Cette courbe partage en outre le plan en deux régions :
• une première région où l’on a g2(x1 , x2) > 0, et où, en consé-
quence, x2t – x2t – 1 > 0 : la suite (x2t) est donc croissante, ce que
l’on représente par une flèche verticale (puisque x2 est sur l’axe
des ordonnées) vers le haut (puisque x2 est croissante). Dans
l’exemple de la figure III.3, cette région est celle située en dessous
de la courbe ;
• une seconde région où g2(x1 , x2) < 0, et donc où la suite (x2t) est
décroissante, ce que l’on représente par une flèche vers le bas.
106
FIGURE III.3

Les points situés à l’intersection de ces deux courbes (E1 et E2


sur la figure III.3) sont les équilibres du processus décrit par
l’équation [8]. En ces points, en effet, on a x1t = x1t – 1 et x2t = x2t – 1.
Autour de chacun de ces points se trouvent donc quatre zones :
une première zone (la zone I sur la figure III.3) dans laquelle x1 et
x2 sont décroissantes, une deuxième (la zone II sur la figure III.3),
dans laquelle x1 est croissante et x2, décroissante, une troisième (la
zone III pour E1 et la zone V pour E2 sur la figure III.3), dans
laquelle x1 et x2 sont croissantes, une quatrième enfin (la zone IV
sur la figure III.3), dans laquelle x1 est décroissante et x2, croissante.
Considérons l’équilibre E2. Il semble être du type point-selle.
En effet, si la condition initiale est dans la zone I ou V, la trajec-
toire semble s’éloigner de l’équilibre. En revanche, les trajectoires
issues de conditions initiales des zones II et IV peuvent éventuel-
lement converger vers E2. Ainsi, la convergence vers E2 semble
n’avoir lieu que dans des cas très particuliers.
Concernant l’équilibre E1, il est difficile de dire quoi que ce
soit, la trajectoire pouvant être un cercle ou une spirale et, dans ce
second cas, converger vers E1 ou diverger (comme dans l’exemple
de la figure II.3, page 99).

107
3. Un résultat global : le théorème de Lyapounov

Si l’étude graphique peut fournir des indications sur l’évolution


d’un système dynamique, ces indications sont toutefois insuffi-
santes (dans le cas de l’équilibre E2 de la figure III.3, on ne peut
leur accorder qu’une confiance relative, dans celui de l’équilibre
E1, elles ne permettent pas de conclure). En outre elle sont loin
d’être toujours disponibles (lorsque les systèmes ont un nombre de
variables strictement supérieur à deux). Bref, dans la majorité des
cas, on ne peut pas dire grand-chose de fiable sur le processus.
Il existe cependant un cas particulier dans lequel on peut
conclure sans ambiguïté à la stabilité globale du processus : celui
où l’on peut associer à ce dernier une fonction dite de Lyapounov.
Ce résultat — le théorème de Lyapounov — peut être énoncé
comme suit :
s’il existe une fonction continue V(ּ) telle que la suite V(Xt)
converge, quel que soit X0, et telle que V(X) = c, où c est une
constante, si et seulement si X est un équilibre du processus (Xt),
alors (Xt) est globalement stable1.
Évidemment, tout le problème est de trouver la fonction V(ּ),
dite de Lyapounov. En outre, comme la convergence globale est
plutôt l’exception que la règle, une telle fonction n’existe généra-
lement pas. Un cas où le théorème de Lyapounov s’applique est
celui du modèle d’échanges volontaires. On prend alors, pour
fonction de Lyapounov, la somme des utilités des individus. En
effet, dans la mesure où l’utilité de chacun augmente au cours des
échanges (puisque ceux-ci sont volontaires) et où ces utilités sont
limitées (majorées) du fait que les quantités de biens à échanger le
sont aussi, alors la somme des utilités individuelles converge (elle
est croissante et majorée), quelle que soit la répartition initiale des
ressources. Si l’on suppose, en outre, que toutes les possibilités
d’échanges mutuellement avantageux sont épuisées, alors la
fonction V(ּ) n’est constante qu’aux seuls équilibres (walrasiens),
le théorème de Lyapounov s’applique : le processus converge,
quelle que soit la condition initiale (pour plus de détails, voir par
exemple Hahn [1982]).

1 Pour plus de détails, voir Archinard et Guerrien [1988], p. 571.

108
II Le cas continu

L’évolution d’un ensemble de variables est ici représentée par


une relation du type :
.
[1] X, (t) = F[X(t)],
x1(t),
( )
où F(ּ) est une fonction (de IRn dans IRn) et où X(t) = x (t),,x (t) .
i n

À la différence du cas séquentiel, l’état actuel ne détermine pas


directement l’état suivant, mais la « variation » d’un état à l’autre.
À l’équilibre, une telle variation est, par définition, nulle. Il
s’ensuit qu’un équilibre Xe est tel que :

F(Xe ) = 0, .
Si la fonction F(ּ) est suffisamment régulière (disons, dérivable
à l’ordre 2) au voisinage de la condition initiale X(0), alors
l’équation a une solution — une « trajectoire » X(t) définie et
unique — du moins pour de petites valeurs de t (voir Michel
[1989], p. 692-699). De l’unicité de la solution on déduit que si

l’on a F(Xe) = 0, , alors Xe est un vecteur d’équilibre (en effet,
X(t) = Xe est alors solution de [1] lorsque X(0) = Xe , et c’est la
seule possible). En résumé :

Xe est un équilibre de [1]  F(Xe ) = 0, .
En outre, si la solution X(t) est bornée (majorée et minorée)
alors on peut la « prolonger » lorsque t augmente, y compris
jusqu’à l’infini — ce qui permet de parler de convergence, ou pas.
Comme dans le cas séquentiel, l’étude des systèmes dynamiques
dans le cas continu peut être facilitée par une étude graphique, du
moins s’il n’y a pas plus de deux variables. C’est ce que nous
étudierons en 1 et en 2, avant de revenir, en 3, sur le théorème de
Lyapounov.

1. Étude graphique dans le cas d’une seule variable

Soit le processus décrit par :


[2] x. (t) = f[x(t)],
109
ou tout simplement par :
[3] x. = f(x), avec x  IR.

A – Étude graphique

Pour représenter graphiquement le processus décrit par [2] (ou


par [3]), on trace tout d’abord le graphe de f(ּ) dans un plan où x
figure en abscisse et x. , en ordonnée (voir figure III.4).
Dans la figure III.4, le graphe de f(ּ) coupe l’axe des abscisses
en trois points : xE1, xE2 et xE3. Ce sont donc les trois valeurs
d’équilibre du processus (puisque f(xE1) = f(xE2) = f(xE3) = 0).
Ici encore, la trajectoire empruntée dépend de la condition
initiale retenue.

FIGURE III.4

Ainsi, sur la figure III.4, si la condition initiale x(0) est strictement


comprise entre xE1 et xE2, alors la solution x(t) est croissante, ce que
l’on représente par une flèche dirigée vers la droite. Dans ce cas,
en effet, le graphe de f(ּ) est au-dessus de l’axe des abscisses : x. (t)
est donc strictement positif. Et il en va exactement de même
lorsque la condition initiale est strictement supérieure à xE3. En
revanche, si elle est inférieure à xE1 ou strictement comprise entre
xE2 et xE3, alors la solution x(t) est décroissante (puisque le graphe
de f(ּ) est alors sous l’axe des abscisses), ce que l’on représente par
une flèche vers la gauche.
Ainsi, la valeur d’équilibre xE2 est un « point d’attraction » de
toutes les trajectoires issues d’une condition initiale strictement
comprise entre xE1 et xE3. En revanche, lorsque x(0) est strictement

110
supérieur à xE3 (ou inférieur à xE1), alors la trajectoire croît (décroît)
lorsque t augmente — autrement dit elle s’éloigne des équilibres.

B – Un exemple : le modèle de Solow

Un exemple classique en économie est celui du modèle de Solow,


décrit par l’équation différentielle d’ordre 1 :
.
[4] k, (t) = sf(k(t)) – gk(t),
ou, plus simplement, par l’équation :
.
[5] k, = sf(k) – gk
où k et f(ּ) sont respectivement le capital et la production par tête (s
étant le taux d’épargne et g le taux de croissance de la population)
[Guerrien, 1996, p. 453]. Si l’on suppose que f(ּ) est strictement
concave, avec f(0) = 0 et f’(0) > g, alors le diagramme de phases
est du type de celui qui est décrit dans la figure III.5.

FIGURE III.5

Lorsque
.
le capital par tête initial, k(0), est strictement inférieur à
k*, k, (t) est strictement positif (puisque le graphe de cette
fonction est au dessus de l’axe des abscisses) : k(t) est donc
croissante, ce que l’on représente par une flèche vers la droite. En
revanche, lorsque.
k(0) est strictement supérieur à k*, k(t) décroît
(puisqu’alors k, (t) est strictement négatif), d’où la flèche vers la
gauche sur la figure III.5. On voit ici que le capital par tête, k(t),
converge vers la valeur d’équilibre (stationnaire) k*, et ce, quel que
soit son niveau initial k(0).

111
2. Étude graphique dans le cas de deux variables

Soit le processus décrit par le système d’ordre 2 :


[6] {x, .1(t) = f1(x1(t) , x2(t)),x, .2(t) = f2(x1(t) , x2(t))

A – Étude graphique

Pour représenter graphiquement le processus décrit par [6], on


trace, dans un système d’axes ayant x1 en abscisses et x2 en ordon-
nées, les courbes d’équation f1(x1 , x2) = 0 et f2(x1 , x2) = 0.
Les points de la première de ces courbes sont tels que x. 1 = 0 ; x1
ne varie donc pas. Cette courbe partage en outre le plan en deux
régions : une première région où x. 1(t) > 0 et où, en conséquence,
x1(ּ) est croissante (ce que l’on représente par une flèche vers la
droite), une seconde, où x. 1(t) < 0 et où, en conséquence, x1(ּ) est
décroissante (ce que l’on représente par une flèche vers la gauche).
De la même façon, sur la courbe d’équation f2(x1 , x2) = 0, x2 ne
varie pas ; et cette courbe partage le plan en deux régions : l’une
où x. 2(t) > 0 et où, en conséquence, x2(ּ) est croissante (ce que l’on
représente par une flèche vers le haut), une seconde, où x. 2(t) < 0
et où, en conséquence, x2(ּ) est décroissante (ce que l’on représente
par une flèche vers le bas).
Chaque équilibre (les points d’intersection entre les deux courbes)
se voit ainsi entouré de quatre zones, dans lesquelles les flèches
indiquent le sens de variations de X(t).

B – Un exemple : le modèle de Goodwin

Le modèle de Goodwin est décrit par le système :


[7] {  
x, (t) = f1(x(t) , z(t)),z, (t) = f2(x(t) , z(t))
avec f1(x , z) = hx(b – z) et f2(x , z) = cz(x – a), où x désigne le taux
d’emploi décidé par les entreprises, et z, la part des salaires dans le
revenu national, h, b, c et a étant des paramètres strictement
positifs.

112
Le taux d’emploi étant strictement positif, la courbe d’équation
f1)ּ) = 0 (points où x. = 0) est la droite « horizontale » d’équation
z = b. Celle-ci partage l’orthant positif en deux régions :
• une première région où l’on a f1)ּ) > 0, autrement dit où x. > 0 et
où, en conséquence, x est croissante, ce que l’on représente par
une flèche vers la droite. Dans l’exemple du système [7], ceci est
le cas lorsque z est strictement inférieur à b ;
• une seconde région où f1)ּ) > 0 et donc où x décroît, ce que l’on
représente par une flèche vers la gauche. Dans l’exemple du
système [7], ceci est le cas lorsque z est strictement supérieur à b.
On procède évidemment de la même façon pour f2(ּ). La part des
salaires dans le revenu national, z, étant strictement positive, la
courbe d’équation f2)ּ) = 0 (points où z. = 0) est la droite
« verticale » d’équation x = a. Elle partage en outre le quadrant
nord-est du plan en deux région : l’une où f2)ּ) > 0 (ce qui est ici le
cas lorsque x > a) et où, en conséquence, z est croissante (ce que
l’on représente par une flèche vers le haut) ; l’autre où z est
décroissante (ce qui est ici le cas lorsque x < a).
Ces deux courbes se coupent en un seul point, E = (a , b). C’est
donc l’unique équilibre du processus décrit par [7]. Dans la figure
III.6, les flèches donnent une idée de la forme des trajectoires
solutions de [7].
La figure III.6 suggère une évolution « en spirale », ou « en
cercle », centrée sur l’équilibre, mais on ne peut savoir si elle
s’approche de plus en plus de lui, si, au contraire, elle s’en éloigne
progressivement, ou si elle se fait « en boucle ». Elle ne permet donc
pas de conclure sur l’éventuelle stabilité du processus1.

FIGURE III.6

1 Pour une étude plus détaillée et approfondie du modèle de Goodwin, voir Michel
[1989], p. 724-727.

113
3. Le théorème de Lyapounov

Le théorème de Lyapounov est l’un des rares moyens permettant


d’établir la stabilité globale d’un processus. Il s’énonce de la même
façon que dans le cas séquentiel : un processus converge s’il existe
une fonction numérique V(ּ) continue, convergeant le long de toutes
ses trajectoires X(t), et constante aux seuls équilibres. L’existence
éventuelle d’une fonction de Lyapounov étant subordonnée à la
convergence du processus, dont on ne sait rien a priori, la portée
de ce résultat est toutefois limitée.
Une fonction de Lyapounov « naturelle » est la « distance »
entre la solution et l’équilibre, à condition que celui-ci soit unique.
Un exemple classique en économie est celui du tâtonnement
walrassien avec substituabilité brute (la dérivée de la demande
nette d’un bien quelconque relativement au prix de tout autre bien
est strictement positive). Le tâtonnement s’écrit alors :
[8] p. i = kiei(p1,..., pn ), ki > 0, i = 1,..., n,
où pi désigne le prix du bien i, et ei(p1,..., pn), la demande nette du
bien i aux prix (p1,..., pn).
Il découle de l’hypothèse de substituabilité brute que le processus
ne comporte qu’un seul équilibre, Pe = (p1e,..., pne). Dans ces
conditions, on peut prendre pour fonction de Lyapounov la fonc-
tion V(ּ) définie par :
V(P) = Erreur !
qui est une sorte de distance entre le vecteur-prix P = (p1,..., pn) à
un instant quelconque et le vecteur d’équilibre (p1e,..., pne). Cette

114
fonction est continue, toujours positive (minorée par 0), et cons-
tante (nulle) au seul vecteur d’équilibre. En outre, la dérivée de
V(P(t)) est :
.
V, (P) = Erreur !,
ou encore, en raison de [8] :
.
V, (P) = Erreur !.
Comme, en raison de la loi de Walras, on a Σp e (p ,..., p ) = 0, ceci
i
i i 1 n

donne :
Σ p e (p ,..., p ).
.
V, (P) = – 2 ie i 1 n
i
Cette expression étant toujours négative en raison de l’hypo-
thèse de substituabilité brute (pour plus de détails, voir Archinard
et Guerrien [1989], p. 582-585), la fonction V(P(t)) est décroissante.
Comme elle est en outre minorée, elle converge pour toute solu-
tion vérifiant le tâtonnement [8].
Cet exemple est l’un des rares où le théorème de Lyapounov
s’applique en économie, ce qui explique l’importance prise, dans
cette discipline, par le cas linéaire, notamment à travers l’étude
locale, au voisinage des équilibres.

III L’approche locale : la linéarisation

Linéariser un système en un point consiste à remplacer chacune


des fonctions fi(ּ) qui le caractérisent par l’application affine qui lui
est tangente en ce point, et, ce, de façon à obtenir un système
linéaire. Par exemple, si fi(ּ) est une fonction d’une seule variable,
alors son graphe est une courbe et la linéariser en un point consiste
à la remplacer — ou l’approcher — par la fonction affine dont le
graphe est la droite tangente à cette courbe en ce point. Si fi(ּ) est
une fonction de deux variables, son graphe est une surface et la
linéariser en un point consiste à la remplacer par la fonction affine
dont le graphe est le plan tangent à cette surface en ce point.
Le système linéaire ainsi obtenu est donc une approximation du
système originel au voisinage du point considéré, et, si ce dernier

115
est un équilibre, il permet d’en étudier la stabilité locale : il ne
permet pas de conclure à la stabilité globale d’un équilibre Xe, ni
même d’en déterminer l’ensemble de stabilité, mais simplement
de répondre à la question : existe-t-il un voisinage de Xe tel que, si
la condition initiale appartient à ce voisinage, alors le processus
converge vers Xe ? La qualité de la réponse à cette question
dépend bien évidemment de celle de l’approximation, autrement
dit de la forme des fonctions du système originel.

1. Le principe de la linéarisation

Si f(ּ) est une fonction dérivable d’une variable, alors la tangente


au graphe de f(ּ) en xe a pour équation :
[1] y = f(xe) + (x – xe)f’(xe).
Linéariser f(ּ)en xe, c’est l’approcher par la fonction affine de x :
[2] f(xe) + (x – xe)f’(xe).
Si f(ּ) est une fonction dérivable de deux variables (x1 , x2), alors
la fonction affine de (x1 , x2) tangente à f(ּ) en Xe = (xe1 , xe2) est :
2
[3] f(xe1 , xe2) + ,
i=1
, Σ(x – x )f ,'(x
i ei x
i e1 , xe2).
Linéariser f(ּ) en Xe, c’est dans ce cas l’approcher par la fonction
de (x1 , x2) :
[4] f(xe1 , xe2) + (x1 – xe1)fx1,'(xe1 , xe2) + (x2 – xe2)fx2,'(xe1 , xe2),
que l’on obtient en développant l’expression [3].
Ainsi, au système d’ordre 2 suivant :
[5] {y1 = f1(x1 , x2),y2 = f2(x1 , x2)
correspond le système linéarisé (en Xe) :
[6]
 y1 = f1(xe1 , xe2) + (x1 – xe1)(f1)x1,'(xe1 , xe2) + (x2 – xe2)(f1)x' 2(xe1 , xe2)

 y2 = f2(xe1 , xe2) + (x1 – xe1)(f2)x' 1(xe1 , xe2) + (x2 – xe2)(f2)x'2 (xe1 , xe2)
ou encore, en adoptant l’écriture matricielle :
 (f1)x1,'(xe1 , xe2), (f1)x2,'(xe1 , xe2) (f2)x' 1(xe1 , xe2) 
[7] (y1,y2) =  
 (f2)x' 2(xe1 , xe2) 
(x1 – xe1,x2 – xe2) + (f1(xe1 , xe2),f2(xe1 , xe2))
116
ce que l’on peut écrire de façon condensée :
[8] Y = F’(Xe)(X – Xe) + F(Xe),
en posant Y = (y1,y2), X = (x1,x2), Xe = (xe1,xe2),
 (f1)x1,'(xe1 , xe2), (f1)x2,'(xe1 , xe2) (f2)'x1(xe1 , xe2) 
et F’(Xe) =  ,
 (f2)x' 2(xe1 , xe2) 
cette matrice étant appelée la matrice jacobienne du système en
Xe.

2. Linéarisation des systèmes dynamiques

Au système d’équations de récurrence :


[9] {x1t = f1 (x1t – 1 , x2t – 1),x2t = f2 (x1t – 1 , x2t – 1)
correspond le système linéarisé en Xe :
 (f1)x1,'(xe1 , xe2), (f1)x2,'(xe1 , xe2) (f2)x' 1(xe1 , xe2) 
[10] (x1t,x2t) =  
 (f2)x' 2(xe1 , xe2) 
(x1t – 1 – xe1,x2t – 1 – xe2) + (f1(xe1 , xe2),f2(xe1 , xe2))
que l’on peut écrire de façon condensée :
[11] Xt = F’(Xe)(Xt – 1 – Xe) + F(Xe).
Si Xe est un équilibre du processus décrit par l’équation [9], donc
si F(Xe) = Xe, alors [11] devient :
[12] Xt = F’(Xe)(Xt – 1 – Xe) + Xe.
En posant Yt = Xt – Xe et A = F’(Xe), ce système s’écrit :
[13] Yt = AYt – 1.
On est donc ici en présence d’un système linéaire d’ordre 1 du
type de ceux qui ont été étudiés au chapitre I. Comme Yt = Xt – Xe,
les conditions de stabilité locale de l’équilibre Xe du processus
décrit par l’équation [9] sont donc les mêmes que les conditions de

stabilité globale de l’équilibre Ye = 0, du processus décrit par
l’équation [13], du moins si aucune valeur propre de A n’est égale
à 1 (sinon le terme négligé lors de la linéarisation prend de
l’importance).
On procède de même avec le système d’équations différentielles :
[14]
{x, .1(t) = f1 (x1(t) , x2(t)),x, .2(t) = f2 (x1(t) , x2(t))
117
dont la linéarisation en Xe (un vecteur d’équilibre) s’écrit :
.
[15] X, (t) = F’(Xe)(X(t) – Xe) + F(Xe),

ou encore, puisque Xe est tel que F(Xe) = 0, :
.
[16] X, (t) = F’(Xe)(X(t) – Xe).
. .
En posant, Y(t) = X(t) – Xe (ce qui implique Y, (t) = X, (t)) et
A = F’(Xe), cette équation s’écrit sous la forme d’une équation
différentielle linéaire d’ordre 1 :
.
[17] Y, (t) = AY(t).
L’étude de la stabilité locale de l’équilibre Xe du processus
décrit par l’équation [14] se ramène donc à celle de la stabilité

globale de l’équilibre Ye = 0, du processus décrit par l’équation
[17], à condition qu’aucune valeur propre de A ne soit égale à 0
(en raison du terme qui a été négligé lors de la linéarisation).

118
Glossaire
Base d’un espace vectoriel* E Dépendant
S = {X1, ... , Xn}est une base de l’espace voir Linéairement indépendant
vectoriel E si et seulement si :
— tous les vecteurs de E peuvent Diagonale principale d’une matrice
s’écrire sous la forme d’une combinai- carrée*
son linéaire des vecteurs de S (on dit Ensemble des éléments aii de la matrice
alors que S engendre E ou que S est un carrée (aij). C’est donc la diagonale
système générateur de E) ; nord-ouest sud-est de cette matrice.
— les éléments de S sont linéairement
indépendants* (on dit alors que S est un Dimension d’un espace vectoriel* E
système libre). Nombre, noté dimE, de vecteurs que
comporte n’importe quelle base* de E.
Combinaison linéaire En particulier la dimension de E est
Soient deux éléments X et Y d’un espace égale à 1, si et seulement si tous les
vectoriel* E sur K. On appelle combi- vecteurs de E peuvent s’écrire sous la
naison linéaire de X et de Y affectée des forme αX, où X est un vecteur de E
scalaires a et b, le vecteur aX + bY. différent du vecteur nul.

Corps Discriminant réduit


Ensemble, souvent désigné par la lettre Dans le cas du polynôme du second degré :
K, muni de deux lois de composition P(x) = ax² + bx +c,
interne (à savoir des applications de nombre, noté Δ’, égal à b’² – ac, où
K  K dans K) ayant les propriétés b’ = b/2, qui permet d’écrire les racines
suivantes :
de P(ּ) sous la forme Erreur !
— la première, appelée somme, est
Le discriminant réduit sert donc à
associative, commutative, possède un
simplifier le calcul des racines de
élément neutre, 0, et est telle que tout
P(x) = ax² + bx +c, lorsque b est un
élément de K possède un opposé unique
nombre pair.
pour cette loi ;
— la seconde, appelée produit, est
Engendré
associative, distributive par rapport à la
voir Système générateur
première, possède un élément neutre, et
telle que tout élément de K possède un
Espace vectoriel sur un corps* K
opposé unique pour cette loi (à
Ensemble, souvent noté E, muni de deux
l’exception de l’élément neutre de la
lois :
première loi). Si cette seconde loi est
— une loi de composition interne
commutative, on dit que le corps est
commutatif. (application de E  E dans E), appelée
Les éléments d’un corps sont appelés somme vectorielle, notée +, qui est asso-
scalaires. ciative, commutative, qui a un élément

Les ensembles des nombres rationnels, neutre unique (noté 0, et appelé
réels et complexes, munis de la somme vecteur nul) et telle que tout élément de E
et du produit « habituels » sont des possède un opposé unique pour cette
corps commutatifs. loi ;

119
— une loi de composition externe Les vecteurs (1,2,1), ( – 1,1,1) et (2,1,0)
(application de K  E dans E), appelée sont linéairement dépendants* puisque
homothétie ou produit d’un vecteur par (2,1,0) = (1,2,1) – (– 1,1,1).
un scalaire, qui vérifie les propriétés
suivantes : Matrice carrée
P1 -  α  K,  X  E,  Y  E, Matrice comportant autant de lignes que
α(X + Y) = αX + αY, de colonnes.
P2 -  α  K,  β  K,  X  E,
(α + β)X = αX + βX, Matrice diagonale
P3 -  α  K,  β  K,  X  E, Matrice carrée* dont tous les éléments
α(βX) = (αβ)X, sont nuls à l’exception, éventuellement,
P4 - l’homothétie possède un élément de ceux situés sur sa diagonale princi-
neutre, le scalaire 1 ( X  E, 1X = X). pale*. C’est le cas, par exemple, de la
matrice suivante :
Un sous-espace vectoriel est une partie ( 1,0,0,0,2,0,0,0,-1 ).
non vide d’un espace vectoriel qui est
lui-même un espace vectoriel. En Matrice identité
particulier, si S = {X1,..., Xp} est un Matrice carrée* ayant des 1 sur sa
ensemble de vecteurs de E, alors L(S) diagonale principale* et des 0 ailleurs.
l’ensemble des combinaisons linéaires* Par exemple,
des éléments de S (L(S) est donc
l’ensemble des vecteurs de la forme (
I = 1,0,0,0,1,0,0,0,1 ) est la
αX1 + ... + αpXp, où αi est un scalaire de matrice identité* d’ordre 3.
K) est un sous-espace vectoriel de E — On l’appelle matrice identité parce que,
celui qui est engendré par S. quelle que soit la matrice carrée M
d’ordre n, on a : MI = IM = M.
Format d’une matrice M
Couple (m,n), où m est le nombre de Matrice inversible, matrice inverse
lignes de M et n, le nombre de ses Une matrice M, carrée d’ordre n, est
colonnes. inversible si et seulement si il existe une
matrice, notée M – 1, telle que MM – 1 =
Inversible M – 1M = In (où In est la matrice identité
voir Matrice inversible d’ordre n).

Linéairement indépendants, Matrice régulière


linéairement dépendants Matrice carrée* dont les colonnes (et les
• n vecteurs C1,…, Ci,…, Cn sont lignes) sont linéairement indépendantes*.
linéairement indépendants (ou forment
un système libre) si et seulement si : Matrices semblables
→ Deux matrices M et N sont semblables
α1C1 + … + α iCi + … + α nCn = 0,
s’il existe une matrice régulière* Q telle
 α1 = … = α i = … = α n = 0.
que M = QNQ – 1.
C’est, par exemple, le cas des vecteurs
(1,0,0), (0,1,0) et (0,0,1).
Matrice triangulaire
• Inversement n vecteurs sont linéai-
Matrice carrée* dont tous les éléments
rement dépendants (ou forment un
situés au-dessus ou en dessous de sa
système lié) si et seulement si on peut
diagonale principale* sont nuls. C’est le
écrire l’un d’eux sous la forme d’une
cas, par exemple, des deux matrices :
combinaison linéaire* de tous les autres.

120
Ordre d’une matrice
( 1,– 1, 3,0, 2, 5,0, 0,– 1 ) et
Nombre de lignes (ou de colonnes) d’une
( 3,0,0,– 1,0,0,– 2,4,1 ). matrice carrée*.

Mineurs principaux d’une matrice Rang d’une matrice


M = (aij) d’ordre n Nombre maximum de colonnes (et/ou
Matrices obtenues en enlevant à M ses de lignes) linéairement indépendantes*
n – p dernières lignes et colonnes (p = de cette matrice.
1,..., n).
Souvent (comme ici), on appelle aussi Suite
mineurs principaux de M les détermi- Application de IN dans IR, qui, par
nants de ces matrices, soit : dét(a11), exemple, associe à t  IN le réel xt. Ce
que l’on note (xt) t  IN ou (xt).
(
dét a11,a12,a21,a22 ),
dét
Système générateur
(a 11,a12,a13,a21,a22,a23,a31,a32,a33 ) Ensemble de vecteurs d’un espace
,..., dét(M). vectoriel* E tel que tout élément de E
peut être obtenu par combinaison linéaire
Multiplicité algébrique d’une racine de ces vecteurs.
d’un polynôme
On appelle racines du polynôme P(ּ), les Trace d’une matrice carrée
nombres λi qui vérifient P(λi) = 0, et Somme des termes situés sur sa diago-
l’on dit que la multiplicité algébrique de nale principale*. On note tr(M), la trace
λi est n lorsque λi est une racine nuple de la matrice M.
de P(ּ). Propriété : deux matrices semblables* ont
Le polynôme P(λ) = λ2 + 2λ + 1 a, par la même trace.
exemple, pour racine double λ = – 1
(puisque P(λ) = (λ + 1)2); la multiplicité
algébrique de – 1 est donc égale à 2.

Bibliographie
ARCHINARD G. et GUERRIEN B. [1992], G UERRIEN B. [1996], Dictionnaire
Analyse mathématique pour écono- d’analyse économique, Paris, La
mistes, 4ème édition, Paris, Economica. Découverte.
BAUMOL W. J. et J. BENHABIB [1989], HAHN F. [1982] « Stability », in K.
« Chaos : Significance, Mechanism, ARROW and M. INTRILIGATOR ed.,
and Economic Applications », Jour- Handbook of Mathematical Eco-
nal of Economic Perspective, 3:1, nomics, North-Holland.
77-105. MICHEL P. [1989] Cours de mathé-
G RANDMONT J.-M. [1985], « On matiques pour économistes, Paris
Endogeneous Competitive Business Economica.
Cycles », Econometrica, 5, 995-1045.

121
Table des matières
Introduction ...................................................................... 3
Une approche spécifique à la modélisation économique .... 3
L’importance du cas linéaire ............................................... 4

Chapitre I Évolutions séquentielles linéaires à


coefficients constants ............................... 6
I Équations de récurrence linéaires d’ordre n à coeffi-
cients constants ............................................................. 7
1. La notion d’équilibre ................................................ 8
A – Exemple ............................................................ 8
B – Détermination des équilibres d’un processus .... 9
2. Résolution des équations de récurrence linéaires
d’ordre n à coefficients constants ............................. 10
A – Solution générale des équations homogènes ..... 10
a) Équations homogènes d’ordre 1 .......................... 10
b) Équations homogènes d’ordre 2 .......................... 11
c) Équations homogènes d’ordre 3 .......................... 16
d) Équations homogènes d’ordre n .......................... 17
B – Solution générale des équations avec second
membre .............................................................. 18
a) Forme de la solution ......................................... 18
b) Détermination d’une solution particulière ............ 19
3. Équations de récurrence linéaires à coefficients
constants et stabilité .................................................. 22
A – Définitions ......................................................... 22
a) Stabilité globale d’un processus .......................... 22
b) Stabilité globale d’une valeur d’équilibre ............ 22
c) Ensemble de stabilité d’un équilibre .................... 23
B – Conditions de stabilité lorsque l’on connaît les
racines du polynôme caractéristique de l’équation 23
a) Cas des équations homogènes ............................. 23
b) Cas des équations non homogènes ...................... 27
C – Conditions de stabilité globale de 0 lorsque l’on
ne connaît pas les racines du polynôme caracté-
ristique ............................................................... 28
a) Cas des équations homogènes d’ordre 2 .............. 28

122
b) Cas des équations homogènes d’ordre 3 ............... 30
D – Applications ...................................................... 30
a) Le tâtonnement séquentiel .................................. 30
b) Le cobweb ........................................................ 32
c) Prix d’un titre et anticipations ............................ 33
d) L’oscillateur de Samuelson ................................ 35
II Systèmes de n équations de récurrence linéaires d’ordre
1 à coefficients constants .............................................. 37
1. Détermination des équilibres .................................... 38
2. Résolution ................................................................. 41
A – Cas où la matrice A est diagonalisable .............. 42
a) Forme de la solution ......................................... 42
b) Forme de la solution réelle lorsque A a des valeurs
propres non réelles ........................................... 43
c) Exemples ......................................................... 44
B – Cas où la matrice A n’est pas diagonalisable ..... 47
a) Forme de la solution ......................................... 47
b) Exemple ........................................................... 49
3. Étude de la stabilité des solutions d’un système de n
équations de récurrence linéaires homogènes .......... 51
A – Conditions de stabilité lorsque l’on connaît les
valeurs propres de la matrice ............................. 52
a) Cas où la matrice A est diagonalisable ................ 52
b) Cas où la matrice A n’est pas diagonalisable ....... 54

B – Conditions de stabilité de 0, lorsque l’on ne
connaît pas les valeurs propres de la matrice .... 55
a) Deux conditions nécessaires de stabilité séquentielle
de A ................................................................ 56
b) Une condition suffisante de stabilité séquentielle
de A ................................................................ 56

Chapitre II Évolutions continues linéaires à


coefficients constants ............................... 58
I Équations différentielles linéaires d’ordre n à coeffi-
cients constants ............................................................. 58
1. La notion d’équilibre ................................................. 59
2. Résolution des équations différentielles linéaires
d’ordre n à coefficients constants ............................. 60
A – Solution générale des équations homogènes ..... 60
a) Équations homogènes d’ordre 1 .......................... 60
123
b) Équations homogènes d’ordre 2 .......................... 61
c) Équations homogènes d’ordre 3 .......................... 65
d) Équations homogènes d’ordre n ......................... 66
B – Solution générale des équations avec second
membre .............................................................. 67
a) Forme de la solution ......................................... 67
b) Détermination d’une solution particulière ............ 67
3. Équations différentielles linéaires à coefficients
constants et stabilité ................................................. 70
A – Conditions de stabilité lorsque l’on connaît les
racines du polynôme caractéristique de l’équation 70
a) Cas des équations homogènes ............................ 70
b) Cas des équations avec second membre ............... 73
c) Application — le tâtonnement continu ................. 73
B – Conditions de stabilité globale lorsque l’on ne
connaît pas les racines du polynôme caractéris-
tique ................................................................... 75
a) Condition nécessaire et suffisante de stabilité à
l’ordre 2 .......................................................... 75
b) Conditions de stabilité à l’ordre n ....................... 76
II Systèmes de n équations différentielles linéaires d’ordre
1 à coefficients constants .............................................. 78
1. Détermination des équilibres .................................... 79
2. Résolution ................................................................. 80
A – Cas où la matrice A est diagonalisable .............. 80
a) Forme de la solution ......................................... 80
b) Forme de la solution réelle lorsque A a des valeurs
propres non réelles ........................................... 82
c) Exemples .......................................................... 82
B – Cas où la matrice A n’est pas diagonalisable ..... 83
a) Forme de la solution ......................................... 83
b) Exemple ........................................................... 84
3. Étude de la stabilité des solutions d’un système de n
équations différentielles linéaires homogènes .......... 87
A – Conditions de stabilité lorsque l’on connaît les
valeurs propres de la matrice ............................. 87
a) Cas où la matrice A est diagonalisable ................ 86
b) Cas où la matrice A n’est pas diagonalisable ....... 87

B – Conditions de stabilité de 0, lorsque l’on ne
connaît pas les valeurs propres de la matrice .... 89
124
a) Conditions nécessaires de stabilité différentielle de
A ................................................................ 90
b) Conditions nécessaires et suffisantes de stabilité
différentielle de A ............................................. 91
c) Condition suffisante de stabilité différentielle de A 92
C – Le diagramme de phases .................................... 93
a) Présentation ..................................................... 93
b) Limites du diagramme de phases ........................ 96

Chapitre III Évolutions non linéaires et linéarisation 100


I Le cas séquentiel ........................................................... 100
1. Étude graphique dans le cas d’une seule variable ..... 101
A – Étude graphique ................................................ 101
B – Exemple ............................................................. 103
2. Étude graphique dans le cas de deux variables ......... 105
3. Un résultat global : le théorème de Lyapounov ........ 108
II Le cas continu ............................................................... 110
1. Étude graphique dans le cas d’une seule variable ..... 109
A – Étude graphique ................................................ 110
B – Un exemple : le modèle de Solow ..................... 111
2. Étude graphique dans le cas de deux variables ......... 112
A – Étude graphique ................................................ 112
B – Un exemple : le modèle de Goodwin ................. 112
3. Le théorème de Lyapounov ...................................... 114
III L’approche locale : la linéarisation ............................... 117
1. Le principe de la linéarisation ................................... 116
2. Linéarisation des systèmes dynamiques ................... 117

Glossaire ............................................................................ 119

Bibliographie ..................................................................... 121

125

View publication stats

Vous aimerez peut-être aussi