Vous êtes sur la page 1sur 39

Sorbonne Université

Licence Mécanique

U.E. LU2ME003 - Méthodes


mathématiques et numériques pour la
mécanique

Enseignants: Diana Baltean-Carlès,


Catherine Weisman, Anca Belme
Équations différentielles d’ordre n > 2

Équation différentielle d’ordre n = équation dans laquelle


d ny
y (n) = est la plus grande dérivée présente. Elle est du type
dx n

F (x, y , y 0 , . . . , y (n) ) = 0. (1)

Une équation est linéaire si elle peut s’écrire sous la forme dite
canonique suivante :

y (n) + pn−1 (x)y (n−1) + . . . + p1 (x)y 0 + p0 (x)y = r (x) (2)

où pn−1 (x), . . . , p0 (x) et r (x) sont des fonctions données.


Si le second membre r (x) ≡ 0, on dit que (2) est homogène
si r (x) 6= 0 elle est non-homogène .
Équations linéaires homogènes
Elles sont du type :
y (n) + pn−1 (x)y (n−1) + . . . + p1 (x)y 0 + p0 (x)y = 0 (3)
Définition :
1. Une solution générale de l’équation (3) sur un intervalle I
ouvert est une solution sur I de la forme
y (x) = C1 y1 (x) + . . . + Cn yn (x)
où C1 , . . . , Cn sont des constantes arbitraires .
2. Une solution particulière est obtenue en choisissant les valeurs
de C1 , . . . , Cn .

Définition :
n fonctions y1 , . . . , yn sont linéairement indépendantes sur un
intervalle I si l’équation
k1 y1 (x) + . . . + kn yn (x) = 0
n’est satisfaite pour tout x ∈ I que lorsque k = k = . . . = k = 0.
Définition :

Un problm̀e aux valeurs initiales (pb. de Cauchy) pour l’équation


(3) consiste en cette équation munie de n conditions initiales

y + pn−1 (x)y (n−1) + . . . + p1 (x)y 0 + p0 (x)y = 0


 (n)


 y (x0 ) = K0



y 0 (x0 ) = K1 (4)
 ..
.




 (n−1)
y (x0 ) = Kn−1

Théorème :
(Existence et unicité pour des problèmes aux valeurs initiales)
Si p0 (x),. . .,pn−1 (x) sont des fonctions continues sur un intervalle
ouvert I , et si x ∈ I , alors le problème aux valeurs initiales (2)+(4)
a une solution unique y (x) sur I .
Exemple Équation d’Euler-Cauchy homogène du 3-ème ordre :
 3 000

 x y − 3x 2 y 00 + 6xy 0 − 6y = 0
y (1) = 0

0 (1) = 1 (5)

 y
 00
y (1) = −4

sur un intervalle ouvert I ⊂ R+ et contenant 1.


On cherche une solution sous forme d’un monôme y (x) = x m .

[m(m − 1)(m − 2) − 3m(m − 1) + 6m − 6]x m = 0

L’exposant m est racine d’une équation d’ordre 3 qui se factorise :

m(m − 1)(m − 2) − 3m(m − 1) + 6m − 6 = (m − 1)(m − 2)(m − 3)

Les racines sont ainsi 1, 2 et 3 d’où la solution générale

y (x) = C1 x + C2 x 2 + C3 x 3 .
En imposant les conditions initiales on trouve le système :
 
 C1 + C2 + C3 = 0  C1 = −4
C1 + 2C2 + 3C3 = 1 ⇒ C2 = 7
2C2 + 6C3 = −4 C3 = −3
 

La solution du problème aux valeurs initiales (5) s’écrit finalement

y (x) = −4x + 7x 2 − 3x 3.
Définition : (Wronskien) :
Soient I ⊂ R un intervalle ouvert et y1 , . . ., yn n fonctions (n − 1)
fois dérivables en x0 ∈ I .
Le Wronskien W(y1 ,...,y2 ) (x0 ) de y1 , . . . , y2 en x0 est le déterminant :
y1 (x0 ) y2 (x0 ) ... yn (x0 )
y10 (x0 ) y20 (x0 ) ... yn0 (x0 )
W(y1 ,...,yn ) (x0 ) = .. .. .. .. .
. . . .
(n−1) (n−1) (n−1)
y1 (x0 ) y2 (x0 ) . . . yn (x0 )

Théorème (Dépendance/Indépendance linéaire des


solutions) :
On suppose que p0 (x),. . .,pn−1 (x) sont continues I .
Les n solutions y1 , y2 , . . ., yn sont linéairement dépendantes sur I
si et seulement si leur Wronskien W(y1 ,...,yn ) (x0 ) = 0 s’annule en un
point x0 ∈ I . De plus, si W(y1 ,...,yn ) (x0 ) = 0 alors W(y1 ,...,yn ) (x) ≡ 0
pour tout x ∈ I .
On en déduit que si W(y1 ,...,yn ) (x1 ) 6= 0 pour au moins un x1 ∈ I ,
alors y1 , y2 , . . ., yn sont linéairement indépendantes sur I .
Preuve :
La démonstration est décomposée en trois points :
a) Si y1 , . . . , yn sont linéairement dépendantes sur I , il existe des
constantes k1 , k2 , . . ., kn non-nulles telles que
k1 y1 (x) + k2 y2 (x) + . . . + kn yn (x) = 0 et ce pour tout x ∈ I .
0 0 0

 k1 y1 (x) + k2 y2 (x) + . . . + kn yn (x) = 0

..
⇒ .
(n) (n) (n)

k1 y1 (x) + k2 y2 (x) + . . . + kn yn (x) = 0

Le système admet une solution k1 , k2 , . . ., kn non-triviale, ce qui


n’est possible que si le déterminant vaut zéro.
Ce déterminant est le Wronskien W(y1 ,...,yn ) (x) qui s’annule donc
pour tout x ∈ I .
b) Soient z1 , z2 , ..., zn des solutions de (2) telles que
W(z1 ,...,zn ) (x0 ) = 0 pour un x0 ∈ I . Il existe des constantes k1 , k2 ,
. . ., kn non-nulles telles que
0 0 0

 k1 z1 (x0 ) + k2 z2 (x0 ) + . . . + kn zn (x0 ) = 0

..
. .
(n−1) (n−1) (n−1)

k1 z1 (x0 ) + k2 z2 (x0 ) + . . . + kn zn (x0 ) = 0

Le principe de superposition permet d’affirmer que


z = k1 z1 + k2 z2 + . . . + kn zn est une solution de (2). De plus, on a
z 0 (x0 ) = z 00 (x0 ) = . . . = z (n−1) (x0 ) = 0 d’après le système
ci-dessus. Or, la fonction y (x) ≡ 0 est une autre solution de (3)
satisfaisant y 0 (x0 ) = y 00 (x0 ) = . . . = y (n−1) (x0 ) = 0. La solution
étant unique, on en déduit que z(x) ≡ 0 sur I et donc que z1 , . . .,
zn sont linéairement dépendantes.
c) Si W(y1 ,...,yn ) (x0 ) = 0 en un point x0 ∈ I alors y1 , . . . , yn sont
linéairement dépendantes d’après b) et W(y1 ,...,yn ) (x) = 0 pour tout
x ∈ I d’après a).
Théorème (Existence de la solution génénale) :
Si p0 , . . ., pn−1 sont continues sur un intervalle ouvert I , alors (3) a
un solution génénale sur I . Elle est de la forme

y (x) = k1 y1 (x) + . . . + kn yn (x)

où y1 , . . ., yn est une base des solutions de (2) (on a donc


W(y1 ,...,yn ) 6= 0 sur I ) et C1 , . . ., Cn sont des constantes.
Équations homogènes à coefficients constants

y (n) + an−1 y (n−1) + . . . + a1 y 0 + a0 y = 0 (6)


La recherche de solutions exponentielles de la forme y = e λx
conduit à l’équation caractéristique

λn + an−1 λn−1 + . . . + a1 λ + a0 = 0.

On distingue plusieurs cas :


Cas 1 : l’équation caractéristique admet n racines distinctes λ1 ,
λ2 , . . ., λn .
Alors la famille (y1 , . . . , yn ) = (e λ1 x , . . . , e λn x ) constitue une base
des solutions de (6) et on peut écrire la solution générale sous la
forme :
n
X
y (x) = Ci yi (x) = C1 e λ1 x + . . . + Cn e λn x
i=1
L’indépendance linéaire de la famille (e λ1 x , . . . , e λn x ) se vérifie en
calculant le Wronskien :
e λ1 x e λ2 x ... e λn x
λ1 e λ1 x λ2 e λ2 x ... λ n e λn x
W(y1 ,...,yn ) (x) = .. .. .. ..
. . . .
λn−1
1 e
λ1 x λn−1
2 e
λ2 x . . . λn−1
n e
λn x

1 1 ... 1
λ1 λ2 ... λn
= e (λ1 +...+λn )x .. .. .. ..
. . . .
λn−1
1 λ2n−1 . . . λn−1
n
Y
= e (λ1 +...+λn )x (λi − λj ) 6= 0
16i<j6n
Exemple

y 000 − 2y 00 − y 0 + 2y = 0
Le polynôme caractéristique est λ3 − 2λ2 − λ + 2 = 0. On a les
racines évidentes λ1 = 1, λ2 = −1 et λ3 = 2 (vérifiez que c’est
bien le cas). La solution générale est

y (x) = C1 e x + C2 e −x + C3 e 2x .
Cas 2 : si on a des racines complexes, elles sont en paires de racines
complexes conjuguées car les coefficient an−1 , . . ., a1 , a0 sont réels.
Dans le cas d’une racine simple λ = γ + iω (avec la racine
conjuguée λ̄ = λ − iω), on peut former deux solutions réelles
linéairement indépendantes

y1 = Re{e λx } = e γx cos ωx

y2 = Im{e λx } = e γx sin ωx

Exemple

 y (0) = 12

y 000 − 2y 00 + 2y 0 = 0 y 0 (0) = −1
 00
y (0) = 2
Le polynôme caractéristique s’écrit

λ3 − 2λ2 + 2λ = 0

λ1 = 0 est une racine évidente


les 2 autres sont complexes conjugués l’une de l’autre

λ2,3 = 1 ± i

La solution générale complexe est alors


3
X
yg
(x) = Cei e λi x = C f2 e (1+i)x + C
f1 + C f2 e (1−i)x , C
f1 , C f3 ∈ C.
f2 , C
i=1

On applique les conditions initiales :

 C1 = 52
 
 y (0) = C1 + C2
y 0 (0) = C2 + C3 ⇒ C2 = −2
 00
y (0) = 2C3 C3 = 1

5
⇒ y (x) = − 2e x cos x + e x sin x.
2
Cas 3 : Racine multiple réelle : si λ est une valeur propre réelle
d’ordre m, alors il y a m solutions linéairement indépendantes
correspondantes : e λx , xe λx , x 2 e λx , . . . , x m−1 e λx .
Exemple :
y (5) − 3y (4) + 3y 000 − y 00 = 0
Le polynôme caractéristique est

λ5 − 3λ4 + 3λ3 − λ2 = 0

λ1 = λ2 = 0 est une racine double et λ3 = λ4 = λ5 = 1 est une


racine triple.
La solution générale est

y (x) = C1 + C2 x + (C3 + C4 x + C5 x 2 )e x .
Cas 4 : Pour une racine multiple complexe λ = γ + iω d’ordre m,
on peut construire 2m solutions linéairement indépendantes :
e γx cos ωx, e γx sin ωx, xe γx cos ωx, xe γx sin ωx, . . . , x m−1 e γx cos ωx,
x m−1 e γx sin ωx.
Example
On considère l’équation du quatriè me ordre

d 4y d 3y d 2y dy
4
− 4 3
+ 14 2
− 20 + 25y = 0
dx dx dx dx
Le polynôme caractéristique est

λ4 − 4λ3 + 14λ2 − 20λ + 25 = 0

On peut le factoriser en (λ2 − 2λ + 5)2 d’ou les racines doubles


λ = 1 ± 2i.
La solution générale réelle est

y (x) = (C1 + C2 x)e x cos(2x) + (C3 + C4 x)e x sin(2x).


Équations non-homogènes ; Méthode de variation des
constantes
On considère maintenant l’équation (2)
y (n) + pn−1 (x)y (n−1) + . . . + p1 (x)y 0 + p0 (x)y = r (x)
dans le cas r (x) 6= 0.
Les propriétés de linéarité, de superposition et les théorèmes
d’existence et d’unicité sont les mêmes que pour n = 2.
La solution génénale de (2) s’écrit
y (x) = yh (x) + yp (x)
yp peut être trouvée par la méthode des coefficients indéterminés
ou la méthode de variation des constantes :
Z Z
W1 (x) Wn (x)
yp (x) = y1 (x) r (x)x. + . . . + yn (x) r (x)x.
W(y1 ,...,yn ) W(y1 ,...,yn )
 
0
 0 
Wj est obtenu de W , en remplaçant la colonne j par  . .
 
 .. 
1
Exemple :

x 3 y 000 − 3x 2 y 00 + 6xay 0 − 6y = x 4 ln x, (x > 0)


L’équation homogène associée a été résolue dans l’exemple 5 :

yh (x) = C1 x + C2 x 2 + C3 x 3 .

Il ne reste donc qu’à trouver une solution particulière de l’équation


non-homogène.
Avant d’appliquer la méthode de variation des constantes, on passe
l’équation dans sa forme canonique en divisant les deux membres
par x 3 ; le second membre devient r (x) = x ln x. Le Wronskien de
(x, x 2 , x 3 ) vaut

x x2 x3 1 x x2 1 x x2
W(x,x 2 ,x 3 ) = 1 2x 3x 2 =x 1 2x 3x 2 =x 0 x 2x 2 = x(6
0 2 6x 0 2 6x 0 2 6x

et ne s’annule pas pour x > 0.


0 x2 x3
x2 x3 x x
W1 = 0 2x 3x 2 = = x3 = x4
2x 3x 2 2 3
1 2 3x
x 0 x3
x x3 x x
W2 = 1 0 3x 2 =− = −x 2 = −2x 3
1 3x 2 1 3
0 1 3x
x x2 0
x x2
W3 = 1 2x 0 = = x2
1 2x
0 2 1
Une solution particulière est donc
Z Z Z
W1 (x) W2 (x)
yp (x) = y1 (x) r (x)x. + y2 (x) r (x)x. + y3 (x)
W(x,x 2 ,x 3 ) W(x,x 2 ,x 3 )
x4 −2x 3 x2
Z Z Z
2 3
= x x ln xx. + x x ln xx. + x x ln xx.
2x 3 2x 3 2x 3
x3
Z Z Z
x
= x 2 ln xx. − x 2 x ln xx. + ln xx.
2 2
x x 3 ln x x3
 2
x2 x3
  
2 x ln x
= − −x − + (x ln x − x)
2 3 9 2 4 2
4
 
x 11
= ln x −
6 6
2 2
Pour vous entraîner, vérifiez directement que x 2ln x − x4 est bien
3 3
une primitive de x ln x et que x 3ln x − x9 est une primitive de
x 2 ln x (avec la primitive de ln x et des intégrations par parties, vous
pouvez retrouver ces expressions).
Systèmes différentiels
Dans le cas général, un système différentiel à n dimensions est
donné par un ensemble de n relations sous la forme :
 0

 y1 = f1 (x, y1 , . . . , yn )
 y 0 = f2 (x, y1 , . . . , yn )

2
.. (7)

 .
 0

yn = fn (x, y1 , . . . , yn )

Si l’on ajoute n conditions initiales :




 y1 (0) = K1
 y2 (0) = K2

.. (8)


 .
yn (0) = Kn

on obtient un problème de Cauchy.


Théorème :
Si f1 , . . ., fn sont continues avec des dérivées partielles continues
dans un domaine ouvert R ⊂ Rn+1 contenant (x0 , K1 , K2 , . . . , Kn ),
alors (7) a une solution dans un intervalle ouvert ]x0 − α, x0 + α[,
α > 0, satisfaisant (8).
Systèmes différentiels linéaires
Un système différentiel (7) est linéaire si les fonctions f1 , . . ., fn sont
linéaires par rapport à y1 , . . ., yn . Autrement dit, (7) est linéaire
s’il existe des fonctions ai1 (x), ai2 (x), . . ., ain (x) et ri (x) telles que

fi (x, y1 , . . .) = ai1 (x)y1 + ai2 (x)y2 + . . . + ain (x)yn + ri (x)

pour tout i = 1, . . . , n.
Exemples :

En dimension 2 :
y10 = a11 (x)y1 + a12 (x)y2

.
y20 = a21 (x)y1 + a22 (x)y2

En dimension n > 2 :
 0

 y1 = a11 (x)y1 + a12 (x)y2 + . . . + a1n (x)yn
 y 0 = a21 (x)y1 + a22 (x)y2 + . . . + a2n (x)yn

2
..

 .
 0

yn = an1 (x)y1 + an2 (x)y2 + . . . + ann (x)yn

Remarque :
Une équation différentielle linéaire à coefficient constants d’ordre
n, peut toujours se mettre sous la forme d’un système linéaire de
dimension n.
Notation matricielle
 

y1 (x)
 a11 (x) a12 (x) . . . a1n (x)
 y2 (x)   a21 (x) a22 (x) . . . a2n (x) 

 . . .  et A(x) = 
Y (x) =  .. .. .. .

 ..
 . . . . 
yn (x) an1 (x) an2 (x) . . . ann (x)
Le système se met alors sous la forme suivante :
 0   a (x) a (x) . . . a (x)  
y1 (x) 11 12 1n y1 (x)
 y 0 (x)   a 21 (x) a 22 (x) . . . a2n (x)   y2 (x) 

 2 = .. .. . . .
 ...    . . .. .. 
 ... 
yn0 (x) an1 (x) an2 (x) . . . ann (x) yn (x)

Y 0 (x) = A(x)Y (x)


La forme générale d’un système linéaire est
Y 0 (x) = A(x)Y (x) + g (x)
Si g (x) ≡ 0, le système est homogène et si g (x) 6= 0, il est
non-homogène.
Théorème :
Si Y1 , Y2 sont deux solutions du système différentiel linéaire
homogène Y 0 = AY , alors Y = C1 Y1 + C2 Y2 est aussi solution.
La famille de solutions Y1 , Y2 , . . ., Yn forme une base des solutions
de Y 0 = AY si le déterminant de la matrice constituée des colonnes
contenant les composantes de Y1 , Y2 , . . ., Yn est non nul.
Dans la suite, on ne va considèrer que le cas où les fonctions aij (x)
sont constantes.
Systèmes différentiels linéaires homogènes à coefficients
constants
Ils sont de la forme Y 0 = AY où A = [aij ] est une matrice n × n
à coefficients réels et constants.
On cherche des solutions sous la forme Y = Xe λx avec
 
X1
X =  ... 
 

Xn
0 
X1 e λx X1 λe λx X1 e λx
   

Y0 =  .. .. ..
 =  = λ =
     
. . .
Xn e λx Xn λe λx Xn e λx

 
X1
λx  .. 
= λe  .  = λXe λx .
Xn

On a donc
Y 0 = AY ⇒ λXe λx = AXe λx ,
c’est-à -dire
AX = λX .
Valeurs propres, vecteurs propres, Diagonalisation des
matrices

Définition : On considère une matrice


 carréed’ordre n, A. λ est
X1
 .. 
valeur propre de A si ∃X 6= 0, X =  .  tel que :
Xn

AX = λX

X = vecteur propre de la matrice A, associé à la valeur propre λ.


Si λ est une valeur propre de A, alors λ est une racine de
l’équation :
ϕ(λ) = det(A − λI ) = 0
appellée équation caractéristique de A.
ϕ(λ) est le polynôme caractéristique de A.
Exemple :  
2 3
Soit la matrice A = . Le polynôme caractéristique est
4 1

2−λ 3
ϕ(λ) = = λ2 − 3λ − 1.
4 1−λ

Les valeurs propres sont donc λ1 = 5 et λ2 = −2.


x
Si λ est valeur propre alors est vecteur propre asscocié si
y

(2 − λ)x + 3y = 0
4x + (1 − λ)y = 0
 
1
Pour λ = 5 on obtient x = y , donc E5 = {α , α ∈ R}.
1
 
1
Pour λ = −2 on a 4x + 3y = 0, E−2 = {α , α ∈ R}.
−4/3
Les vecteurs  propres  λ1 = 5, λ2 = −2
 associés aux valeurs propres
1 3
sont X (1) = , respectivement X (2) = . Les vecteurs
1 −4
X (1) , X (2) sont linéairement indépendants, ils forment donc une
base de E = R2 .
AX (1) = 5X (1) et A X(2) = −2X (2) . La matrice diagonale définie
par :  
5 0
D=
0 −2
est reliée avec A par :
D = P −1 AP,
 
1 3
où P = est la matrice constituée avec les vecteurs
1 −4
propres. Elle représente aussi la matrice de passage de la base
canonique vers la base des vecteurs propres.
Propriété 1 : Toute matrice d’ordre n admet n valeurs propres,
réelles ou imaginaires, distinctes ou confondues. Elles vérifient :
n
X n
Y
λi = TrA, λi = detA
i=1 i=1

Propriété 2 : Si λ1 , λ2 , . . . , λp sont p valeurs propres distinctes de

A, alors les p vecteurs propres associés aux valeurs propres forment


un système libre.

Théorème (théorème fondamental sur la diagonalisation) :


Soit A une matrice carrée d’ordre n. Alors A est diagonalisable ⇐⇒
chaque sous-espace propre de A a la dimension égale à l’ordre de
multiplicité de la valeur propre associée et la somme des dimensions
des sous-espaces propres = n
(=somme des ordres de multiplicité des valeurs propres).
On revient au système différentiel, écrit sous forme matricielle :

Y 0 = AY ⇒ λXe λx = AXe λx ⇒ AX = λX .

Alors, X est un vecteur propre de A associé à la valeur propre λ.


Pour obtenir X , on sera ainsi amené à résoudre un problème aux
valeurs propres pour la matrice carrée A.
On suppose dans la suite que A est à coefficients réels et est
diagonalisable (⇒ il existe une base de vecteurs propres)
Cas 1 : On note λ1 , . . . , λn les valeurs propres distinctes et
X (1) , . . . , X (n) les vecteurs propre associés (ils sont linéairement
indépendants deux à deux). Les solutions linéairement
indépendantes de Y 0 = AY sont

Y (1) = X (1) e λ1 x
Y (2) = X (2) e λ2 x
..
.
Y (n) = X (n) e λn x
La solution générale s’écrit
n
X
Y = Ci Y (i) = C1 X (1) e λ1 x + C2 X (2) e λ2 x + . . . + Cn X (n) e λn x
i=1

où C1 , . . . , Cn sont des constantes arbitraires.

Cas 2 : Deux valeurs propres sont complexes conjuguées l’une de


l’autre. Par exemple, si λ1 = λ2 = γ + iω et
X (1) = X (2) = A(1) + iB (1) avec A(1) , B (1) ∈ Rn pour i = 1, . . . , n,
on forme les deux solutions linéairement indépendantes réelles :

X (1) e λ1 x +X (1) e λ1 x
Y (1) = 2 = e γx (A(1) cos ωx − B (1) sin ωx)
(9)
X (1) e λ1 x −X (1) e λ1 x
Y (2) = 2i = e γx (A(1) sin ωx + B (1) cos ωx)

Si les autres valeurs propres sont réelles, elles relèvent du cas 1


ci-dessus.
On considère l’exemple :
 
0 0 1
Y = AX , avec A =
−1 0
Les valeurs propres sont λ1 = λ2 = iet les
 vecteurs propres
1
correspondants sont X (1) = X (2) = .
i
La solution générale complexe est
   
1 1
f1 X (1) e λ1 x + C
Ye = C f1 X (2) e λ2 x = C
f1 ix
e +C
f2 e −ix
i −i

avec C f2 ∈ C.
f1 , C
On peut prendre pour solutions réelles linéairement indépendantes
de Y 0 = AY :
 
cos x
     
(1) 1 ix 1 −ix (1)
 2Y = e + e  Y = − sin x
 

i   −i 

⇒  .
1 1

 2iY =

 (2) ix
e − e −ix  (2)
 Y =
 sin x
i −i cos x
Rappel : Quel que soit z ∈ C, on a e iz + e −iz = 2 cos z et
e iz − e −iz = 2i sin z.
La solution générale réelle est ainsi :
 
C1 cos x + C2 sin x
Y = C1 Y (1) + C2 Y (2) =
C2 cos x − C1 sin x

où C1 , C2 sont des constantes réelles quelconques.


Pour faire (1) (1) (1)
 le lien avec (9),poser
 X = A + iB avec
1 0
A(1) = et B (1) = .
0 1
Cas 3 : µ = λ1 = λ2 est une valeur propre double de A.
Deux solutions linéairement indépendantes sont

Y (1) = Xe µx
Y (2) = Xxe µx + Ue µx

où X et U sont les vecteurs propres associés à la valeur propre µ.


Cas 4 : µ = λ1 = λ2 = λ3 est une valeur propre triple de A.
On peut prendre les trois solutions linéairement indépendantes :

Y (1) = Xe µx
Y (2) = Xxe µx + Ue µx
1 2 µx
Y (3) = Xx e + Uxe µx + Ve µt
2
où X , U et V sont les vecteurs propres associés à la valeur propre
µ.
Systèmes différentiels linéaires non-homogènes
Ils peuvent s’écrire en général
Y 0 = AY + B. (10)
On se limitera ici au cas où la matrice A est à coefficients constants.
De la même manière qu’avec les équations linéaires, on cherche la
solution comme somme de la solution générale du système
homogène Y (h) et d’une solution particulière Y (p) du système avec
g 6= 0 :
Y = Y (h) + Y (p) .
Lorsque la matrice A est diagonalisable, on va montrer que l’on
peut découpler le problème. Pour cela, on note P la matrice de
passage de la base canonique à la base des vecteurs propres
X (1) , . . . , X (n) . La diagonalisation de A conduit alors à
 
λ1 0 0
A = PDP −1 , avec D =  0 ... 0  .
 

0 0 λn
Le système (10) devient ainsi

Y 0 = PDP −1 Y + B ⇒ (P −1 Y )0 = D(P −1 Y ) + P −1 B

En définissant maintenant
   
Z1 C1
Z =  ...  = P −1 Y et C =  ...  = P −1 B
   

Zn Cn

on voit que (10) se réécrit comme un système de n équations


découplées :  0
 Z1 = λ1 Z1 + C1

..
.
 0

Zn = λn Zn + Cn
chaque équation étant du premier ordre (à coefficients constants).
La solution de la i-ème équation est :

Zi (x) = Ci e λi x + Zip (x), (i = 1, . . . , n).

où Zip (x) est une solution particulière de Zi0 = λi Zi + Ci .


Pour obtenir la solution particulière, on utilisera la méthode des
coefficients indéterminés lorsque les composantes de g (x) sont du
type polynôme, exponentielle, cosinus, sinus ...
Si ce n’est pas le cas, on peut toujours utiliser la méthode de
variation de la constante ce qui conduit à
Z
p 0
Zi (x) = e λi x
e −λi x Ci (x 0 )dx 0 , (i = 1, . . . , n).

La solution Y du problème initial (10) est finalement obtenue en


inversant la relation Z = P −1 Y ⇔ Y = PZ .

Vous aimerez peut-être aussi