Académique Documents
Professionnel Documents
Culture Documents
Cours d’Algèbre 3
Prof : Z. Mazgouri
2/90
TABLE DES MATIÈRES
3/90
TABLE DES MATIÈRES
4/90
CHAPITRE 1.
1. Sous-espaces vectoriels
1.1 Sous-espace vectoriel
Définition 1 (Sous-espace vectoriel).
Notation :
- Un K-espace vectoriel sera souvent noté par la suite par K-e.v.
- On écrit parfois s.e.v de E pour dire sous-espace vectoriel de E.
5/90
1. Sous-espaces vectoriels
Proposition 1 .
Proposition 2 .
Exemple 1 .
Proposition 3 .
6/90
2. Applications linéaires
Théorème 1 .
Remarque 1 .
Proposition 4 .
Soient E un K-e.v de dimension finie et F et G deux s.e.v de E. Les propositions suivantes sont équiva-
lentes :
(i) F et G sont supplémentaires dans E ;
(ii) dim(F ) + dim(G) = dim(E) et F ∩ G = {0E }.
Théorème 2 .
2. Applications linéaires
2.1 Application linéaire
Définition 5 (Application linéaire).
Remarque 2 .
7/90
2. Applications linéaires
Définition 6 .
Exemple 2 .
Proposition 5 .
Proposition 6 .
8/90
2. Applications linéaires
Proposition 7 .
Soient E et F deux K-e.v de dimension finie et f ∈ L(E, F ). Le rang de f noté rg(f ) est défini par :
9/90
2. Applications linéaires
Exemple 3 .
Définition 10 .
Soient B = {e1 , ..., en } et B 0 = {e01 , ..., e0n } deux bases d’un K-e.v de dimension finie n. La matrice de
passage de la base B à la base B 0 notée PBB0 = (pij )1≤i,j≤n ∈ Mn (K) est la matrice définie par :
Exemple 4 .
Soit E = R3 muni de sa base canonique Bc = {e1 , e2 , e3 }. On considère une autre base B formée par les
b1 = (1, 1, 1)
vecteurs suivants : b2 = (3, 2, 0)
b = (−1, 0, 1)
3
On a :
idE (b1 ) = b1 = (1, 1, 1) = 1e1 + 1e2 + 1e3
idE (b2 ) = b2 = (3, 2, 0) = 3e1 + 2e2 + 0e3
id (b ) = b = (−1, 0, 1) = −1e + 0e + 1e
E 3 3 1 2 3
Remarque 3 .
- Pour obtenir la matrice de passage d’une base initiale B à une nouvelle base B 0 , on exprime chaque
élément de la base B 0 en fonction des éléments de la base B.
10/90
2. Applications linéaires
Soient B = {e1 , ..., en } et B 0 = {e01 , ..., e0n } deux bases d’un K-e.v de dimension finie n.
n n
x1 x01
.
.. ; X 0 = ... .
X X
x0i e0i et X =
Si x = xi e i =
i=1 i=1 0
xn xn
0 0 −1
Alors X = PBB0 X et X = (PBB0 ) X.
Soient :
• E et F deux K-e.v de dimensions finies et f ∈ L(E, F ).
• B1 et B2 deux bases de E.
• B10 et B20 deux bases de F .
Alors on a :
MB2 B20 (f ) = PB20 B10 MB1 B10 (f )PB1 B2 .
11/90
CHAPITRE 2.
Exemple 1 .
12/90
1. Forme linéaire et hyperplan
Remarque 1 .
1. E ∗ = L(E, K) est un espace vectoriel sur K. En effet, on sait que si F et G sont deux K-espaces
vectoriels, alors ((L(F, G), +, .) est un K-espace vectoriel.
2. Si E est de dimension finie sur K alors E ∗ est aussi de dimension finie et on a
dim(E) = dim(E ∗ )
En effet,
dim(E ∗ ) = dim(L(E, K)) = dim(E) × dim(K) = dim(E).
1.2 Hyperplan
Définition 2 (Hyperplan).
Exemple 2 .
Proposition 1 .
Soit E un K-espace vectoriel et H un s.e.v de E. Alors les propositions suivantes sont équivalentes :
1. H est un hyperplan de E.
2. Il existe une droite vectorielle D telle que E = H ⊕ D.
Preuve
1) =⇒ 2)
Supposons que H est un hyperplan de E. ∃ϕ : E → K, ϕ 6= 0 telle que H = Ker(ϕ).
13/90
1. Forme linéaire et hyperplan
x = h + λu ∈ Ker(ψ) ⇔ ψ(x) = λ = 0 ⇔ x = h ∈ H.
Théorème 1 .
Preuve
Posons dim(E) = n.
- Soit H un hyperplan de E. Il existe f une forme linéaire non nulle sur E telle que :
Puisque f est non nulle, alors Im(f ) 6= {0K }. D’autre part, Im(f ) est un s.e.v de K. Or, les seuls s.e.v de
K sont {0K } et K. Donc Im(f ) = K et par conséquent dim(Im(f )) = dim(K) = 1.
14/90
2. Base duale
- Réciproquement si H est un s.e.v. de E de dimension n − 1, alors H possède une base (f1 , ..., fn−1 ) qu’on
complète en une base (f1 , ..., fn ) de E. H est alors le noyau de la forme linéaire :
fn∗ : E −→ K
n
X
x= xj fj 7−→ fn∗ (x) = xn .
j=1
Remarque 2 .
2. Base duale
2.1 Définition et proposition
Soit E un K-e.v de dimension finie n et B = {e1 , ..., en } une base de E. Pour tout i ∈ {1, ..., n}, on
considère l’application :
e∗i : E −→ K
n
X
x= xj ej 7−→ e∗i (x) = xi .
j=1
L’application e∗i est une forme linéaire sur E. En effet, pour tous x, y ∈ E et tous α, β ∈ K, on a :
Xn
e∗i (αx + βy) = e∗i (αxj + βyj )ej = αxi + βyi = αe∗i (x) + βe∗i (y).
j=1
Remarque 3 .
15/90
2. Base duale
La famille B ∗ = {e∗1 , ..., e∗n } est une base de l’espace dual E ∗ appelée base duale de E associée à B.
Preuve
On sait que dim(E ∗ ) = dim(E) = n, donc Card(B ∗ ) = n = dim(E ∗ ). Il suffit de vérifier que B ∗ est libre.
n
X
n
Soit (α1 , ..., αn ) ∈ K tel que αi e∗i = 0, a t-on α1 = α2 = ... = αn = 0 ?
i=1
n
X n
X
On a αi e∗i = 0, donc αi e∗i (x) = 0, ∀x ∈ E. En prenant x = ej , 1 ≤ j ≤ n, on a
i=1 i=1
n
X
αi e∗i (ej ) = αj = 0, 1 ≤ j ≤ n.
i=1
Donc la famille {e∗1 , ..., e∗n } est libre. Ainsi B ∗ est une base de E ∗ .
Proposition 3 .
Soient E un K-espace vectoriel de dimension finie n, B = {e1 , ..., en } une base de E et B ∗ = {e∗1 , ..., e∗n }
sa base duale. Alors, on a :
X n
1) ∀x ∈ E, x = e∗i (x)ei .
i=1
Xn
2) ∀ϕ ∈ E ∗ , ϕ = ϕ(ei )e∗i .
i=1
3) ∀f ∈ L(E), aij = e∗i (f (ej )) où MB (f ) = (aij )1≤i,j≤n désigne la matrice de f dans la base B.
Preuve
n
X
1) Soit x ∈ E, x = λi ei , λi ∈ K. Pour j ∈ {1, ..., n}, on a
i=1
n n
!
X X
e∗j (x) = e∗j λi ei = λi e∗j (ei ) = λj .
i=1 i=1
n
X
D’où x = e∗i (x)ei .
i=1
16/90
2. Base duale
n
X
2) Soit ϕ ∈ E ∗ , ϕ = λi e∗i . Pour j ∈ {1, ..., n}, on a
i=1
n n
!
X X
ϕ(ej ) = λi e∗i (ej ) = λi e∗i (ej ) = λj .
i=1 i=1
n
X
D’où ϕ = ϕ(ei )e∗i .
i=1
3) Soit f ∈ L(E) un endomorphisme de E. On a :
a11 · · · a1n n
. .. X
M at(f, B) = ..
.
et f (e j ) = akj ek .
k=1
an1 · · · ann
Proposition 4 .
Soit B1 et B2 deux bases d’un K-espace vectoriel de dimension finie E et soit P la matrice de passage de
B1 à B2 . Alors, la matrice de passage de B1∗ à B2∗ est (P −1 )t .
Preuve
17/90
2. Base duale
D’autre part on a,
n
!
X
fi∗ (fj ) = fi∗ aij ei
i=1
n n
!
X X
= bki e∗k aij ei
k=1 i=1
Xn Xn
= bki aij e∗k (ei )
k=1 i=1
n
X
= bki akj
k=1
= cij .
Application :
On considère les vecteurs u1 = (−3, −2, 7), u2 = (3, −1, −5) et u3 = (1, −3, 0) de R3 exprimés dans la
base canonique B0 = {e1 , e2 , e3 }.
1. Montrer que la famille B = {u1 , u2 , u3 } est une base de R3 .
2. Déterminer la base duale de B.
Solution :
1. Card(B) = 3 = dim(R3 ). Il suffit de montrer qu’elle est libre.
−3 3 1
On a : −2 −1 −3 = −1 6= 0. Donc B est une base de R3 .
7 −5 0
2. Soit B ∗ = {u∗1 , u∗2 , u∗3 } la base duale de B et notons B0∗ = {e∗1 , e∗2 , e∗3 } la base duale de la base
canonique B0 .
−3 3 1
La matrice de passage de B0 à B est P =
−2 −1 −3 .
7 −5 0
18/90
3. Prolongement des formes linéaires
−15 −21 17 −15 −5 −8
t
Ona : com(P ) =
−5 −7 6 et (com(P )) = −21 −7 −11 .
−8 −11 9 17 6 9
15 5 8
1
Donc P −1 = (com(P ))t =
21 7 11 .
det(P )
−17 −6 −9
∗ ∗ ∗ ∗
15 21 −17 u1 = 15e1 + 5e2 + 8e3
D’où : Q = ∗ ∗ ∗ ∗
5 7 −6 et par suite u2 = 21e1 + 7e2 + 11e3
8 11 −9 u∗ = −17e∗ − 6e∗ − 9e∗
3 1 2 3
Preuve
ϕ: E = F ⊕ G −→ K
x = x1 + x2 7−→ ϕ(x) = ψ(x1 ).
4. Base préduale
Proposition 5 .
19/90
4. Base préduale
Preuve
1) Si ϕ ∈ E ∗ est une forme linéaire non nulle, alors il existe u ∈ E tel que ϕ(u) 6= 0.
u ϕ(u)
Pour x = , on a ϕ(x) = = 1.
ϕ(u) ϕ(u)
2) Soit F = V ect(x) et soit ψ la forme linéaire sur F définie, pour tout y = αx ∈ F par ψ(y) = α.
D’après le théorème précédent, ψ se prolonge en une forme linéaire ϕ sur E. Donc on a
ϕ(x) = ψ(x) = 1.
Preuve
ψ : E −→ Kn
x 7−→ ψ(x) = (f1 (x), ..., fn (x)).
Donc, (
1 si i = j
fi (ψ −1 (αj )) = δij = .
0 si i 6= j
Ainsi, B ∗ est la base duale de B.
Reste à montrer l’unicité.
Soit B 0 une autre base de E dont la base duale est B ∗ .
20/90
4. Base préduale
In = Q = (P −1 )t .
Exemple 3 .
Soient l’espace vectoriel E = R2 et B = {e1 , e2 } sa base canonique. On considère les formes linéaires
Vérifier que {f1 , f2 } est une base de l’espace dual E ∗ et trouver sa base préduale.
Correction :
- On a Card({f1 , f2 }) = 2 = dim(R2 )∗ . Il suffit de montrer que {f1 , f2 } est libre.
2 −1
On a : DetB∗ (f1 , f2 ) = = −1 6= 0. Donc {f1 , f2 } est une base de E ∗ .
1 −1
- Trouvons sa base préduale.
Soit {u1 , u2 } la base préduale de {f1 , f2 }. Posons : u1 = αe1 + βe2 ; u2 = λe1 + γe2 .
On a {f1 , f2 } est la base duale de {u1 , u2 }, donc ∀i, j, fi (uj ) = δij .
Donc
( ( (
f1 (u1 ) = 1 2α + β = 1 α=1
⇒ ⇒ ⇒ u1 = e1 − e2 .
f2 (u1 ) = 0 −α − β = 0 β = −1.
( ( (
f1 (u2 ) = 0 2λ + γ = 0 λ=1
⇒ ⇒ ⇒ u2 = e1 − 2e2 .
f2 (u2 ) = 1 −λ − γ = 1 γ = −2.
Exemple 4 .
Soit l’espace vectoriel E = R1 [X] = {aX + b | a, b ∈ R}. On considère les formes linéaires f1 , f2 ∈ E ∗
définies par : Z 1 Z 2
∀P ∈ E, f1 (P ) = P (t)dt et f2 (P ) = P (t)dt.
0 0
1. Montrer que B ∗ = {f1 , f2 } est une base de l’espace dual E ∗ .
2. Déterminer la base B de E préduale de B ∗ .
Correction :
1- Comme dim(E ∗ ) = card(B ∗ ) = 2. Alors il suffit de montrer que la famille B ∗ est libre.
21/90
5. Orthogonalité
a +b=1
( (
f1 (P1 ) = 1 a = −2
⇒ 2 ⇒ ⇒ P1 = −2X + 2.
f2 (P1 ) = 0 2a + 2b = 0 b = 2.
a
(
f1 (P2 ) = 0 +b=0 a=1 1
⇒ 2 ⇒ 1 ⇒ P2 = X − 2 .
f2 (P2 ) = 1 2a + 2b = 1 b=− .
2
D’où la base préduale de B ∗ est B = {P1 , P2 }.
5. Orthogonalité
Définition 3 .
∀ϕ ∈ E ∗ , ϕ ∈ A⊥ ⇔ ∀x ∈ A, ϕ(x) = 0.
A⊥ = {ϕ ∈ E ∗ : ∀x ∈ A, ϕ(x) = 0}.
22/90
6. Bidual d’un espace vectoriel
Proposition 6 .
A ⊆ B =⇒ B ⊥ ⊆ A⊥ .
Preuve
ϕ ∈ B ⊥ =⇒ ∀x ∈ B, ϕ(x) = 0
=⇒ ∀x ∈ A, ϕ(x) = 0 (carA ⊆ B)
=⇒ ϕ ∈ A⊥ .
Jx : E ∗ −→ K
ϕ 7−→ Jx (ϕ) = ϕ(x).
\
Alors, Jx est une forme linéaire sur E ∗ et on a A⊥ = ker(Jx ).
x∈A
Donc A⊥ est un sous-espace vectoriel de E ∗ .
3. On a A ⊆ V ect(A). Donc d’après 1), (V ect(A))⊥ ⊆ A⊥ .
Xn
Soit ϕ ∈ A⊥ et soit x ∈ V ect(A) avec x = λi xi , où xi ∈ A.
i=1
n
X
On a ϕ(x) = λi ϕ(xi ) = 0. Ainsi, ϕ ∈ (V ect(A))⊥ .
i=1
4. Si ϕ ∈ E ⊥ , alors ∀x ∈ E, ϕ(x) = 0. Par suite ϕ = 0.
23/90
6. Bidual d’un espace vectoriel
Définition 4 (Bidual).
Soit E un K-espace vectoriel, On appelle bidual de E, qu’on note E ∗∗ , l’espace vectoriel dual de E ∗ .
E ∗∗ = (E ∗ )∗ = L(E ∗ , K).
Proposition 7 .
Soit E un K-espace vectoriel de dimension finie n. Alors, les espaces vectoriels E et E ∗∗ sont isomorphes,
i.e., il existe un isomorphisme entre E et E ∗∗ .
Preuve
On considère :
J : E −→ E ∗∗
x 7−→ Jx = J(x)
avec
Jx : E ∗ −→ K
ϕ 7−→ Jx (ϕ) = ϕ(x).
1) Pour tout x ∈ E, Jx ∈ E ∗∗ .
En effet, soient ϕ1 , ϕ2 ∈ E ∗ , α, β ∈ K, on a
Jx (αϕ1 + βϕ2 ) = (αϕ1 + βϕ2 )(x) = αϕ1 (x) + βϕ2 (x) = αJx (ϕ1 ) + βJx (ϕ2 ).
Remarque 4 .
24/90
7. Exercices
7. Exercices
Exercice 1
Soient K un corps commutatif et E = Kn avec n ∈ N∗ . Montrer que pour toute forme linéaire ϕ de E, il
existe un unique élément a = (a1 , ..., an ) ∈ Kn tel que
Exercice 3
Soient K un corps commutatif et E = K[X]. Montrer que ! pour toute forme linéaire ϕ de E, il existe un
p
X Xp
unique élément x = (xn )n∈N ∈ KN , tel que ϕ ai X i = ai xi .
i=0 i=0
Exercice 4
Soit R2 [X] l’espace des polynômes de degré inférieur ou égal à 2. On considère l’ensemble :
Exercice 5
Soit n ≥ 1 un entier et Rn [X] l’espace vectoriel des polynômes à coefficients réels de degré ≤ n.
On considère l’application :
ϕ : Rn [X] −→ R
Z 1
P 7−→ ϕ(P ) = P (t)dt.
0
1. Montrer que ϕ est une forme linéaire sur Rn [X].
2. Pour chaque i ∈ {0, 1, ..., n}, on définit l’application :
ϕi : Rn [X] −→ R
25/90
7. Exercices
i
P −
7 → ϕi (P ) = P .
n
Montrer que pour chaque i ∈ {0, 1, ..., n}, ϕi est une forme linéaire sur Rn [X] et que (ϕ0 , ϕ1 , ..., ϕn )
est une base de (Rn [X])∗ .
Z 1 n
X i
3. En déduire qu’ils existent des scalaires a0 , a1 , ..., an tels que ∀P ∈ Rn [X], P (t)dt = ai P .
0 n
i=0
Exercice 6
Exercice 7
Soit l’espace vectoriel E = R3 [X]. On considère les formes linéaires f1 , f2 , f3 et f4 définies par :
Exercice 8
Montrer que (ϕ1 , ϕ2 , ϕ3 ) est une base de (R3 )∗ et trouver sa base préduale.
26/90
7. Exercices
Exercice 9
Soient E = Rn [X], l’espace vectoriel des polynômes de degré ≤ n à coefficients réels, B = {e0 , ..., en } sa
base canonique et a0 , a1 , ..., an des réels deux à deux distincts.
1. Déterminer la base duale de B.
2. Soit L = {L0 , ..., Ln } la famille des polynômes définis par :
Y X − aj
Li = , (0 ≤ i ≤ n).
ai − aj
j6=i
a+b
(c) Traiter le cas où n = 2, a0 = a, a1 = et a2 = b.
2
27/90
CHAPITRE 3.
1. Formes bilinéaires
1.1 Définition et exemple
Définition 1 (Forme bilinéaire).
Soit E un K-espace vectoriel. Une forme bilinéaire sur E est une application
f : E × E −→ K
(x, y) 7−→ f (x, y)
telle que : pour tout x ∈ E l’application y 7−→ f (x, y) est linéaire et pour tout y ∈ E l’application
x 7−→ f (x, y) est linéaire.
Remarque 1 .
28/90
1. Formes bilinéaires
Exemple 1 .
Soit E = C([a, b], R) l’espace des fonctions continues de [a, b] dans R. Alors l’application :
f : E× −→ R
Z b
(ϕ, ψ) 7−→ f (ϕ, ψ) = ϕ(t)ψ(t)dt
a
est une forme bilinéaire sur E. En effet, en utilisant la linéarité de l’intégrale, on a pour tous α, β ∈ R et
pour toutes fonctions ϕ1 , ϕ2 , ψ1 , ψ2 , ϕ et ψ ∈ E :
Z b Z b Z b
f (αϕ1 + βϕ2 , ψ) = (αϕ1 + βϕ2 )(t)ψ(t)dt = α ϕ1 (t)ψ(t)dt + β ϕ2 (t)ψ(t)dt
a a a
= αf (ϕ1 , ψ) + βf (ϕ2 , ψ).
De même, on a :
Z b Z b Z b
f (ϕ, αψ1 + βψ2 ) = ϕ(t)(αψ1 + βψ2 )(t)dt = α ϕ(t)ψ1 (t)dt + β ϕ(t)ψ2 (t)dt
a a a
= αf (ϕ, ψ1 ) + βf (ϕ, ψ2 ).
Soit f une forme bilinéaire sur E. La matrice de f relativement à la base B = (e1 , e2 , ..., en ) de E est la
matrice
Exemple 2 .
f : E × E −→ R
(x, y) 7−→ f (x, y) = 2x1 y1 − x1 y2 + 3x2 y1 + x2 y2
29/90
1. Formes bilinéaires
!
2 −1
La matrice de f dans la base canonique Bc = (e1 , e2 ) de R2 est : MBc (f ) = .
3 1
Soit f une forme bilinéaire sur E et A la matrice de f dans la base B = (e1 , e2 , ..., en ) de E. Soient
Xn n
X
x= xi ei et y = yj ej deux vecteurs de E et X et Y les vecteurs colonnes formés des coordonnées
i=1 j=1
de x et y. Alors :
f (x, y) = X t AY
Preuve
x1 y1
.
.. et Y = ... .
On a : A = (aij )1≤i,j≤n , X =
xn yn
a11 · · · a1n y1 a11 y1 + ... + a1n yn
. .. .. ..
AY = . . = .
. . . .
an1 · · · ann yn an1 y1 + ... + ann yn
Donc
n
X
a1i yi
a11 y1 + ... + a1n yn i=1
n X n
.. ..
X
X t AY = (x1 , ..., xn )
. = (x1 , ..., xn ) =
xi yj aij = f (x, y).
n .
i=1 j=1
an1 y1 + ... + ann yn
X
ani yi
i=1
Exemple 3 .
!
3 1
La matrice A = est la matrice de la forme bilinéaire f définie par :
1 −2
! ! !
t 3 1 y1 3y1 + y2
f (x, y) = X AY = (x1 , x2 ) = (x1 , x2 ) = 3x1 y1 + x1 y2 + x2 y1 − 2x2 y2 .
1 −2 y2 y1 − 2y2
30/90
1. Formes bilinéaires
Exemple 4 .
1) Soit E = R2 . Le produit scalaire usuel sur E défini pour X = (x1 , x2 ), Y = (y1 , y2 ) par
f : R2 × R2 −→ R
(X, Y ) 7−→ f (X, Y ) = x1 y1 + x2 y2
ϕ : Mn (R) × Mn (R) −→ R
(A, B) 7−→ ϕ(A, B) = T r(AB)
Remarque 2 .
Remarquer que la symétrie permet de ne vérifier la linéarité que d’un seul côté.
Proposition 1 .
Soient E un K-espace vectoriel de dimension finie n, B = (e1 , e2 , ..., en ) une base de E, f ∈ L2 (E) et
A = MB (f ). Alors,
• f est symétrique si, et seulement si, A est symétrique (i.e., At = A).
• f est anti-symétrique si, et seulement si, A est anti-symétrique (i.e., At = −A).
Remarque 3 .
31/90
2. Formes quadratiques
Preuve
Soient x, y dans E, on note respectivement X1 et X2 les matrices colonnes formées des coordonnées de
x dans les bases B1 et B2 et Y1 et Y2 les matrices colonnes formées des coordonnées de y respectivement
dans les bases B1 et B2 . D’après le résultat de l’action d’un changement de base sur les coordonnées d’un
vecteur, on sait que : X1 = P X2 et Y1 = P Y2 . Or,
Exercice 1 : !
2 1
On considère la matrice A =
1 3
1. Donner l’expression de la f.b.s ϕ associée à A.
2. Vérifier que B = {u = (2, −1), v = (1, 3)} est une base de R2 .
3. Donner la matrice de ϕ dans la nouvelle base B.
2. Formes quadratiques
Définition 4 (Forme quadratique associée à une forme bilinéaire).
Soit f une forme bilinéaire. On appelle forme quadratique sur E associée à la forme bilinéaire f , l’appli-
cation q : E → K définie par :
∀x ∈ E, q(x) = f (x, x).
Remarque 4 .
1. L’ensemble, noté Q(E), des formes quadratiques sur E est un K-espace vectoriel.
32/90
2. Formes quadratiques
2. Il n’y a pas unicité des formes bilinéaires associées à une forme quadratique. En effet, si E = R2 ,
les formes bilinéaires f et g définies par :
f (x, y) = x1 y1 + x2 y2
et
g(x, y) = x1 y1 + x2 y2 − x2 y1 + x1 y2
Théorème 2 .
Si q est une forme quadratique sur E, il existe une unique forme bilinéaire symétrique f telle que
q(x) = f (x, x) pour tout x ∈ E. On dit que f est la forme polaire de la forme quadratique q.
Preuve
Soit q une forme quadratique sur E, donc par définition il existe une forme bilinéaire g sur E telle que
∀x ∈ E, q(x) = g(x, x).
Introduisons l’application f définie sur E × E par :
1
f (x, y) = (g(x, y) + g(y, x)).
2
L’application f est bilinéaire, symétrique et vérifie f (x, x) = q(x), ∀x ∈ E.
Comme f est bilinéaire et symétrique, on a :
q(x + y) = f (x + y, x + y)
= f (x, x) + f (x, y) + f (y, x) + f (y, y)
= q(x) + 2f (x, y) + q(y), ∀x, y ∈ E.
Donc,
1
f (x, y) = [q(x + y) − q(x) − q(y)], (Égalité de polarisation).
2
D’où l’unicité de f .
Proposition 3 .
33/90
2. Formes quadratiques
Preuve
q(x − y) = f (x − y, x − y)
= f (x, x) − f (x, y) − f (y, x) + f (y, y)
= q(x) − 2f (x, y) + q(y).
Donc
q(x − y) = q(x) + q(y) − 2f (x, y). (3..2)
Si q est une forme quadratique sur E de forme polaire f , alors la matrice de q dans une base B de E est
la matrice de f dans cette base. i.e., MB (q) = MB (f ).
Remarque 5 .
Soient E un K-espace vectoriel de dimension finie n, B = (e1 , e2 , ..., en ) une base de E, q : E → K une
forme quadratique, f : E × E → K la forme polaire de q et A = (aij )1≤i,j≤n = MB (f ).
X n X
On a ∀x ∈ E, x = xi ei , q(x) = aij xi xj . Or f est symétrique, donc At = A et par suite
i=1 1≤i,j≤n
∀i, j, aij = aji . D’où
n
X X
q(x) = aii x2i + 2 aij xi xj .
i=1 1≤i<j≤n
34/90
3. Forme bilinéaire symétrique non dégénérée
Exemple 5 .
Déterminer la matrice et la forme polaire de la forme quadratique q définie dans la base canonique de
R3 par :
q(x) = x21 + 3x22 + 5x23 + 4x1 x2 + 6x1 x3 + 2x2 x3 .
1 2 3
La matrice de q dans la base canonique de R3 est : Mq =
2 3 1 .
3 1 5
La forme polaire de q est donnée par :
1 2 3 y1
t
f (x, y) = X Mq Y = (x1 , x2 , x3 ) 2 3 1 y2
3 1 5 y3
Φ : E −→ E ∗
y 7−→ Φ(y) = Φy
Remarque 6 .
Proposition 4 .
Soient E un K-espace vectoriel de dimension finie, (e1 , e2 , ..., en ) une base de E, f : E × E → K une
forme bilinéaire symétrique et A = M at(f, (e1 , e2 , ..., en )). Alors
35/90
4. Orthogonalité et vecteurs isotropes
Preuve
Considérons l’application :
Φ : E −→ E ∗
y 7−→ Φ(y)
f est non dégénérée ⇔ Φ injective. Or dim(E) < ∞ et dim(E) = dim(E ∗ ).
Donc f est non dégénérée ⇔ Φ bijective.
On sait que A = M at(Φ, (e1 , e2 , ..., en ), (e∗1 , e∗2 , ..., e∗n )).
Donc
Exemple 6 .
36/90
4. Orthogonalité et vecteurs isotropes
Proposition 5 .
Preuve
Donc λx + y ∈ A⊥ .
D’où A⊥ est un sous-espace vectoriel de E.
3. V ect(A) = sous espace vectoriel engendré par A
= le plus petit espace vectoriel contenant A
Xn
= αi ai | αi ∈ R, ai ∈ A.
i=1
On a A ⊆ V ect(A). Donc d’après 1), (V ect(A))⊥ ⊆ A⊥ .
Xn
Inversement, soit x ∈ A⊥ et soit y ∈ V ect(A) avec y = αi ai , où ai ∈ A, αi ∈ R.
i=1
On a
n
X n
X
f (y, x) = f ( αi ai , x) = αi f (ai , x) = 0, (car x ∈ A⊥ ).
i=1 i=1
⊥
Ainsi, x ∈ (V ect(A)) .
4, 5 et 6. Évidents.
37/90
4. Orthogonalité et vecteurs isotropes
Proposition 6 .
Preuve
Φ : E −→ F ∗
1. Soit où ∀x ∈ F, Φy (x) = f (x, y).
y 7−→ Φy
On a : ker(Φ) = F ⊥ . D’autre part, on a
Im(Φ) ⊆ F ∗ ⇒ dim(Im(Φ)) ≤ dim(F ∗ ) = dim(F ).
En appliquant le théorème du rang, on déduit que
E −→ E ∗
Or f est non dégénérée, donc l’application telle que ∀x ∈ E, Φy (x) = f (x, y) est bijective.
y 7−→ Φy
Donc pour α ∈ E ∗ , il existe y ∈ E tel que α = Φy .
α = Φy ⇒ ∀x ∈ F, α(x) = Φy (x) = f (x, y).
Or, ∀x ∈ F, α(x) = ϕ(x). Donc, ∀x ∈ F, α(x) = f (x, y). On en déduit que ϕ = Φy .
Conclusion : ϕ est surjective. Ainsi, Im(Φ) = F ∗ .
Finalement, on conclut en utilisant le théorème du rang, puisque ker(Φ) = F ⊥ .
(ii) On a toujours F ⊆ F ⊥ . D’autre part on a :
38/90
4. Orthogonalité et vecteurs isotropes
Remarque 7 .
Exemple 7 .
f : E × E −→ R
(x, y) 7−→ f (x, y) = x1 y1 − x2 y2
!
1 0
On a A = M at(f, (e1 , e2 )) = .
0 −1
A est symétrique, donc f est symétrique.
f et non dégénérée (car det(A) = −1 6= 0).
Soit F = {(x1 , x2 ) ∈ R2 : x1 = x2 } = V ect{(1, 1)}. On a F ⊥ = V ect{(1, 1)}⊥ = {(1, 1)}⊥ .
Donc
(x1 , x2 ) ∈ F ⊥ ⇔ f ((x1 , x2 ), (1, 1)) = 0 ⇔ x1 − x2 = 0 ⇔ x1 = x2 .
Ainsi, F ⊥ = F .
On a dim(F ) + dim(F ⊥ ) = 1 + 1 = 2 = dim(R2 ). Mais R2 6= F ⊕ F ⊥ .
Définition 8 .
Remarque 8 .
Si F est totalement isotrope, alors il est isotrope. La réciproque n’est pas toujours vraie.
Théorème 3 (Admis).
39/90
5. Décomposition en carrés d’une forme quadratique
Soit q une forme quadratique définie sur un K-e.v E de dimension finie et soit ϕq sa forme polaire.
• x ⊥q y ⇔ ϕq (x, y) = 0.
• L’orthogonal d’un s.e.v F de E est F ⊥ = {x ∈ E | ∀y ∈ F, x ⊥q y}.
• Une base B = {e1 , ..., en } est dite q-orthogonale si ϕq (ei , ej ) = 0, ∀i 6= j.
• Le rang de q est rg(q) = rg(Mq ).
• Un vecteur x ∈ E est dit q-isotrope si q(x) = 0.
• Le cône isotrope de q est donné par Cq = {x ∈ E | q(x) = 0}.
Remarque 9 .
Exercice 2 :
Soit q : R3 → R la forme quadratique définie par q(x, y, z) = x2 − y 2 .
1. Donner la forme bilinéaire symétrique associée à q ainsi que la matrice de q dans la base canonique
{e1 , e2 , e3 } de R3 .
2. Donner un vecteur u ∈ R3 q-isotrope.
3. Vérifier que e1 ⊥ e2 puis déterminer e⊥
2.
Cette expression n’est très agréable à manipuler. Un calcul simple montre que
40/90
5. Décomposition en carrés d’une forme quadratique
Si u un vecteur de R3 de coordonnées (x, y, z) dans une base B. Soit B 0 une nouvelle base de R3 dans
laquelle les nouvelles coordonnées (x0 , y 0 , z 0 ) de u s’expriment par :
0
x = 2x + y − z
y 0 = y + 2z
z0 = z
0 0 1
1 1 3
Donc B 0 = {( , 0, 0), (− , 1, 0), ( , −2, 1)}. La forme quadratique q s’exprime dans cette nouvelle base
2 2 2
par :
q(u) = (2x + y − z)2 − 3(y + 2z)2 − 8z 2 .
On a :
4 2 −2 1 0 0
0
M = MB (q) =
2 −2
−7 et M = MB0 (q) = 0 −3 0 .
−2 −7 −19 0 0 −8
Avec
M 0 = P t M P.
Définition 10 .
Réduire une forme quadratique q sur un e.v E c’est trouver une base B 0 de E dans laquelle la forme
quadratique q s’écrit :
q(x) = α1 (x01 )2 + α2 (x02 )2 + ... + αn (x0n )2 ,
où α1 , ..., αn ∈ R et x01 , ..., x0n sont les coordonnées de x dans cette base.
41/90
5. Décomposition en carrés d’une forme quadratique
Pour toute forme quadratique q sur E, il existe un entier p compris entre 1 et n, des scalaires α1 , ..., αp
et des formes linéaires f1 , ..., fp de E linéairement indépendantes tels que
p
X
∀x ∈ E, q(x) = αi (fi (x))2 .
i=1
Preuve
La preuve de ce théorème est basée sur un raisonnement par récurrence sur la dimension n de l’espace
vecoriel E.
- Pour n = 1, c’est évident.
- Supposons que toute forme quadratique de n − 1 variables s’écrit comme somme de carrés de p formes
linéaires f1 , ..., fp de E linéairement indépendantes (p ≤ n − 1).
Deux situations peuvent se présenter :
1er cas : q(x) contient au moins un terme carré, i.e., ∃i ∈ {1, ..., n} tel que aii = ai 6= 0.
On prend par exemple a1 6= 0. On isole tous les termes contenant x1 , on obtient
n
X Xn X
q(x) = a1 x21 + 2 a1j x1 xj + ai x2i + 2 aij xi xj
j=2 i=2 2≤i,j≤n
n n
X a1j X X
= a1 x21 + 2 x1 xj + ai x2i + 2 aij xi xj
a1
j=2 i=2 2≤i,j≤n
2 2
n n n
X a1j X a1j
X X
= a1 x1 + xj − a1 xj + ai x2i + 2 aij xi xj
a a
j=2 1 j=2 1 i=2 2≤i,j≤n
2
n
X a1j
= a1 x1 + xj + S(x2 , ..., xn ),
a1
j=2
42/90
5. Décomposition en carrés d’une forme quadratique
2
n n
X a1j X X
avec S(x2 , ..., xn ) = −a1 xj + ai x2i + 2 aij xi xj .
a1
j=2 i=2 2≤i,j≤n
C’est une forme quadratique en x2 , ..., xn (n − 1 variable).
D’après l’hypothèse de récurrence, on peut écrire
S(x) = α2 (f2 (x2 , ..., xn ))2 + ... + αp (fp (x2 , ..., xn ))2 ,
q(x) = α1 (f1 (x2 , ..., xn ))2 + α2 (f2 (x2 , ..., xn ))2 + ... + αp (fp (x2 , ..., xn ))2 .
2ème cas : q(x) ne contient aucun terme carré, i.e., ∀i, aii = ai = 0.
X
Dans ce cas, on a q(x) = 2 aij xi xj .
1≤i,j≤n
On choisit deux variables, par exemple x1 , x2 et on isole tous les termes contenant x1 et x2 , on obtient
X n Xn X
q(x) = 2 a12 x1 x2 + a1j xj x1 + a2j xj x2 + aij xi xj
j=2 j=3 3≤i<j≤n
= 2a12 (x1 x2 + Bx1 + Cx2 ) + D,
Corollaire 1 .
Soit q une forme quadratique sur E. Il existe une famille libre {f1 , ..., fp }, p ≤ n de formes linéaires sur
E telle que :
43/90
5. Décomposition en carrés d’une forme quadratique
Preuve
Le théorème de réduction de Gauss assure l’existence d’une famille libre {f1 , ..., fp } dans E ∗ telle que
On complète la famille {f1 , ..., fp } en une base B ∗ = {f1 , ..., fp , fp+1 , ..., fn } de E ∗ .
Soit B = {e1 , ..., ep , ep+1 , ..., en } la base préduale de B ∗ et soit ϕ la forme polaire associée à q.
p
(
X ai , ∀i ≤ p
On a : ϕ(ei , ei ) = q(ei ) = aj fj2 (ei ) = .
j=1 0, ∀i > p
Et ∀i 6= j,
1
ϕ(ei , ej ) = (q(ei + ej ) − q(ei ) − q(ej ))
2
p p p
!
1 X X X
= ak fk2 (ei + ej ) − ak fk2 (ei ) − ak fk2 (ej )
2
k=1 k=1 k=1
p
!
1 X
= 2 ak fk (ei )fk (ej )
2
k=1
= 0.
Donc la base B = {e1 , ..., ep , ep+1 , ..., en } est une base orthogonale et la matrice de q dans cette base est :
a1 0 ... ... 0
. . . . . . ..
0 . . . .
.. ..
MB (q) =
. . ap 0 0 .
.. .. .. .
. . . 0 ..
0 ... 0 0 0
Exemple 8 .
44/90
5. Décomposition en carrés d’une forme quadratique
0 0 1
On a :
1 0 1 0 0 1 0 1 0 1 0 0 3 0
x = x − y + z + z x = 2x − 2y + z + 2z
2 2 2
(S) ⇔ 0 0 ⇔ 0 0
y = y − 2z
y = y − 2z
z = z0 z = z0
1 1 3 0
x − x
2 2 2
⇔ y = 0 0 .
1 −2 y
z 0 0 1 z0
1 1 3 1 1 3
− −
2 2 2 0 2 2 2
Donc X = X . Par suite P = PB B = .
0 1 −2 0 0 1 −2
0 0 1 0 0 1
45/90
5. Décomposition en carrés d’une forme quadratique
D’où
1
u1 = ( , 0, 0)
2
1
u2 = (− , 1, 0)
2
u3 = ( 3 , −2, 1).
2
Et la forme quadratique q dans la nouvelle base B = {u1 , u2 , u3 } s’exprime :
q(u) = x02 − 3y 02 − 8z 02 .
1 0 0
Et sa matrice dans cette base est : MB (q) =
0 −3 0 . (rg(q) = 3).
0 0 −8
4
2) Soit q : R → R la forme quadratique :
q(x, y, z, t) = xy + yz + zt + tx.
On a :
q(x, y, z, t) = xy + yz + zt + tx
= xy + yz + tx + zt
= (x + z)(y + t) − zt + zt
1 1
= (x + z + y + t)2 − (x + z − y − t)2 .
4 4
x0 = x + y + z + t
y0 = x + z − y − t
Pour obtenir une base q-orthogonale, on pose :
z0 = z
t0 = t
Donc
1 1
x + y = x0 − z 0 − t 0
x = x0 + y 0 − z 0
2 2
1 0 1 0
x − y = y 0 − z 0 + t0
y = x − y − t0
⇔ 2 2
z = z0
z=z 0
t = t0
t = t0
x 1/2 1/2 −1 0 x0
y 1/2 −1/2 0 −1 y 0
⇔ = .
0
z 0 0 1 0
z
t 0 0 0 1 t0
46/90
6. Signature d’une forme quadratique réelle
0 0 0 0
Soit B = {u1 , u2 , u3 , u
4 } la nouvelle base danslaquelle les coordonnées de u sont (x , y , z , t ).
1/2 1/2 −1 0
1/2 −1/2 0 −1
On a P = PB0 B = . Donc
0 0 1 0
0 0 0 1
1 1
u1 = ( , , 0, 0)
2 2
1 1
u2 = ( , − , 0, 0)
2 2
u3 = (−1, 0, 1, 0)
u
4 = (0, −1, 0, 1)
1 1
Et la forme quadratique q dans cette base s’exprime : q(u) = x02 − y 02 .
4 4
1
0 0 0
4
0 −1 0 0
Et sa matrice dans cette base est : MB (q) =
4 . (rg(q) = 2).
0 0 0 0
0 0 0 0
Exemple 9 .
47/90
7. Espaces euclidiens
1)
q(x, y, z, t) = xy + yz + zt + tx
1 1
= (x + z + y + t)2 − (x + z − y − t)2 .
4 4
Donc sg(q) = (1, 1).
Définition 11 .
Proposition 7 .
7. Espaces euclidiens
7.1 Produit scalaire
Définition 12 .
48/90
7. Espaces euclidiens
(
∀x ∈ E, f (x, x) ≥ 0
2. f est dite définie positive si :
f (x, x) = 0 ⇔ x = 0.
Remarque 10 .
Définition 13 .
Remarque 11 .
Preuve
Notation : Un produit scalaire f sera souvent noté h., .if ou tout simplement h., .i s’il n’y a pas de
risque de confusion, i.e., hx, yi = f (x, y), ∀x, y ∈ E. On lit ”x scalaire y”.
Exemple 10 .
49/90
7. Espaces euclidiens
∞ ∞ ∞ ∞
!
X X X X
2 2
|xn | < ∞ et |yn | < ∞ ⇒ |xn yn | < ∞ ⇒ xn yn < ∞ .
n=0 n=0 i=0 n=0
Donc, h., .i définit un produit scalaire sur l2 (R).
Ainsi, (l2 (R), h., .i) est un espace euclidien.
Soit f : E × E → R une forme bilinéaire symétrique positive sur un R-e.v E. Alors, ∀x, y ∈ E
p p
|f (x, y)| ≤ f (x, x). f (y, y)
Preuve
Définition 14 (Norme).
Proposition 8 .
k.k : E −→ R+
p
x 7−→ kxk = hx, xi
50/90
7. Espaces euclidiens
Preuve
On a :
(i) kxk = 0 ⇔ hx, xi = 0 ⇔ x = 0 car f est définie.
p p p
(ii) kλxk = hλx, λxi = λ2 hx, xi = |λ| hx, xi = |λ|kxk.
(iii)
kx + yk2 = hx + y, x + yi
= hx, xi + hy, yi + 2hx, yi
≤ kxk2 + kyk2 + 2kxk.kyk, par Cauchy-Schwarz
≤ (kxk + kyk)2 .
Remarque 12 .
Exemple 11 .
2) E = l2 (R).
∞ ∞
!1 ∞
!1
X X 2 X 2
2 2
|xn yn | ≤ |xn | . |yn | .
n=0 n=0 n=0
n
3) E = R .
n n
!1 n
!1
X X 2 X 2
2 2
xi yi ≤ |xi | . |yi | .
i=1 i=1 i=1
Remarque 13 .
n n
!1 n
!1
p q
X X X 1 1
x i yi ≤ |xi |p . |yi |q , avec + = 1.
p q
i=1 i=1 i=1
51/90
8. Exercices
8. Exercices
Exercice 1
3. Donner l’expression de la forme quadratique q associée à f par rapport à chacune des bases B0 et
B00 .
Exercice 3
Soit E = R2 [X] l’espace des polynômes de degré inférieur ou égale à 2 à coefficients réels et B = {P1 =
1, P2 = X, P3 = X 2 } sa base canonique.
Z 1
On considère l’application ϕ : E × E → R telle que ϕ(P, Q) = P (t).Q(1 − t)dt.
0
1. Montrer que ϕ est une forme bilinéaire symétrique.
2. Soit F = {P ∈ E : P (0) = 0} et G = V ect(P1 ).
(a) Montrer que F est un hyperplan de E et déterminer une base de F .
(b) Vérifier que F ⊕ G = E.
(c) Déterminer G⊥ l’orthogonal de G par rapport à ϕ.
Exercice 4
52/90
8. Exercices
2. Déterminer la forme polaire de q. La forme quadratique q est-elle définie ? sinon, exhiber un vecteur
isotrope non nul.
3. Calculer la matrice de f dans la base canonique B = {1, X, ..., X n } de E.
4. On suppose que n = 2.
Soit P ∈ R2 [X]. Exprimer q(P ) en fonction des coordonnées de P dans la base canonique de R2 [X].
Exercice 5
Soit q la forme quadratique sur l’espace vectoriel réel E = R4 définie en posant pour chaque élément x de
E de coordonnées (x1 , x2 , x3 , x4 ) sur la base canonique :
où λ, µ ∈ R.
1. Écrire la forme polaire de q et la matrice de q par rapport à la base canonique.
2. Calculer le rang de q en discutant suivant les valeurs de λ et µ.
3. Dans chaque cas trouvé, décomposer q en somme de carrés linéairement indépendantes.
Exercice 8
Soient E = M2 (R) le R-espace vectoriel des matrices carrées d’ordre 2 à coefficients réels et q : E → R
l’application définie par :
∀A ∈ E, q(A) = det(A)
53/90
8. Exercices
1) Démontrer que q est une forme quadratique puis déterminer sa matrice dans la base canonique de
E, son rang, sa signature et les éléments isotropes.
2) Soit F la partie de E formée des matrices de trace nulle. Vérifier que F est un sous-espace vectoriel
de E et déterminer l’orthogonal de F .
Exercice 9
Soit E = C([−1, 1], R) l’espace des fonctions continues sur [−1, 1] à valeurs dans R.
1. Montrer que l’application :
ϕ : E × E −→ R
Z 1
(f, g) 7−→ ϕ(f ) = f (t)g(t)dt
−1
définit un produit scalaire sur E.
2. Soient : I = {f ∈ E : f est impaire} et P = {f ∈ E : f est paire}.
Montrer que P ∈ I ⊥ .
Exercice 11
Soit (E, h, i) un espace euclidien et soient x1 , ..., xn des vecteurs de E non nuls et orthogonaux deux à
deux.
Montrer que la famille {x1 , ..., xn } est libre.
Exercice 12
54/90
8. Exercices
Exercice 13
Soit (E, h, i) un espace euclidien et soient f et g deux applications définies sur E telles que :
1. Montrer que q définit un produit scalaire sur R3 et déterminer sa matrice par rapport à Bc .
2. Soit F le plan d’équation x1 + x2 + x3 = 0 dans la base Bc .
Déterminer F ⊥ .
Exercice 15 (Facultatif, extrait d’examen 2021-2022)
55/90
CHAPITRE 4.
1. Diagonalisation
1.1 Rappel sur la diagonalisation
Soit E un K-e.v de dimension finie n, f ∈ L(E), B une base de E et A = MB (f ) = (aij ) ∈ Mn (K).
IdE (resp. In ) désignera l’application identité de E (resp. la matrice identité de taille n).
• Le polynôme (en X) P = Pf (X) = PA (X) = det(A − XIn ) est appelé polynôme caractéristique
de A (ou de f ). Notons que deg(P ) = n.
• Les valeurs propres de la matrice A (resp. l’endomorphisme f ) sont les racines de PA (X) (resp.
Pf (X)).
• L’ensemble des valeurs propres de A (resp. de f ) est noté par Sp(A) (resp. Sp(f )).
λ ∈ Sp(A) ⇔ PA (λ) = 0.
• On appelle vecteur propre de f associé à une valeur propre λ tout vecteur non nul de
56/90
1. Diagonalisation
Exemple 1 .
!
a b
1) Pour toute matrice A = ∈ M2 (K), on a
c d
D : E −→ E
f 7−→ f 0 .
gλ : R −→ R
x 7−→ eλx .
On a : D(gλ ) = λgλ . Donc λ est une valeur propre de D et la fonction gλ est un vecteur propre associé.
Exercice 1 :
Soit f : R2 −→ R2 l’endomorphisme de R2 défini par f (x, y) = (−y, x).
Montrer que f n’admet pas de valeur propre.
Remarque 1 .
1. Puisque, par définition un vecteur propre est non nul, alors dim(Eλ ) ≥ 1, ∀λ ∈ Sp(f ).
2. On a
1 ≤ dim(Eλ ) ≤ mλ , ∀λ ∈ Sp(f ).
57/90
1. Diagonalisation
Proposition 1 .
Soit f ∈ L(E),
Preuve
Définition 1 .
Un polynôme P est dit scindé dans K s’il se décompose en produit de polynômes de degré 1 de K[X],
i.e.,
P (X) = (X − λ1 )m1 ...(X − λk )mk ,
i.e., toutes les racines de P sont dans K. On dit que λi est une racine d’ordre de multiplicité mi .
Exemple 2 .
L’endomorphisme f (ou la matrice A) est diagonalisable ssi les deux conditions suivantes sont vérifiées :
1. Le polynôme caractéristique Pf est scindé dans K[X] ;
2. pour chaque racine λi de Pf d’ordre de multiplicité mi , on a dim(Eλi ) = mi .
Si Pf est scindé dans K et a toutes ses racines simples, alors f est diagonalisable. En effet, dans ce cas
dim(Eλi ) = 1 pour tout i = 1, ..., k.
58/90
1. Diagonalisation
Exemple 3 .
Soit
−1 7 5 0
0 2 4 1
A= .
0
0 0 −1
0 0 0 3
On a Sp(A) = {−1, 2, 0, 3} et PA (X) = X(X + 1)(X − 2)(X − 3).
Donc A admet 4 valeurs propres distinctes. Par suite A est diagonalisable.
Théorème 2 .
1. ∀λ, µ ∈ Sp(f ) telles que λ 6= µ, on a Ker(f − λIn ) ∩ Ker(f − µIn ) = {0}, i.e., Eλ ∩ Eµ = {0}.
2. On suppose que Sp(f ) = {λ1 , ..., λk }, et que
1−X 2 −3 1−X 0 −1 + X
PA (X) = 1 4−X −5 = 1 4−X −5 L1 ← L1 − L3
0 2 −2 − X 0 2 −2 − X
1−X 0 0
= 1 4−X −4 C3 ← C1 + C3
0 2 −2 − X
4−X −4
= (1 − X)
2 −2 − X
= (1 − X) [(4 − X)(−2 − X) + 8]
= (1 − X)(X 2 − 2X)
= −X(X − 1)(X − 2).
59/90
1. Diagonalisation
u = (x, y, z) ∈ E1 ⇔ AU = U ⇔ (A − I3 )U = 0
0 2 −3 x 0
⇔
1 3 −5 y = 0
0 2 −3 z 0
2y − 3z = 0
⇔ x + 3y − 5z = 0
2y − 3z = 0
(
x = 1/2z
⇔
y = 3/2z.
60/90
1. Diagonalisation
- Déterminons Eλ3 :
u = (x, y, z) ∈ E2 ⇔ AU = 2U ⇔ (A − 2I3 )U = 0
−1 2 −3 x 0
⇔ 1 2 −5 y
= 0
0 2 −4 z 0
−x + 2y − 3z = 0
⇔ x + 2y − 5z = 0
2y − 4z = 0
(
x=z
⇔
y = 2z.
Exercice 2 :
−1 1 1
Soit la matrice : B =
1 −1 1 .
1 1 −1
61/90
1. Diagonalisation
1 0 2
Application : Soit la matrice : A =
0 1 0 .
2 0 1
1. Montrer que A est inversible et déterminer son inverse en utilisant les cofacteurs de A.
2. En utilisant la diagonalisation :
(a) calculer An , n ∈ Z∗ ;
(b) retrouver l’inverse de A.
Solution :
1. det(A) = −3 6= 0, donc A est inversible. En utilisant les cofacteurs de A on obtient :
1 0 −2
−1
A−1 =
0 −3 0 .
3
−2 0 1
1−X 0 2
PA (X) = 0 1−X 0 = (1 − X)[(1 − X)2 − 4]
2 0 1−X
= −(X + 1)(X − 1)(X − 3).
Donc A admet trois valeurs propres distinctes λ1 = −1, λ2 = 1 et λ3 = 3. Ainsi A est diagonalisable.
- La deuxième étape est de déterminer les vecteurs/sous-espaces propres :
- Déterminons Eλ1 :
u = (x, y, z) ∈ E−1 ⇔ AU = −U ⇔ ⇔ (A + I3 )U = 0
2 0 2 x 0
⇔ 0 2 0 y
= 0
2 0 2 z 0
(
2x + 2z = 0
⇔
2y = 0
(
x = −z
⇔
y=0
62/90
1. Diagonalisation
- Déterminons Eλ2 :
u = (x, y, z) ∈ E1 ⇔ AU = U ⇔ (A − I3 )U = 0
0 0 2 x 0
⇔ 0 0 0 y = 0
2 0 0 z 0
(
x=z=0
⇔
y∈R
u = (x, y, z) ∈ E3 ⇔ AU = 3U ⇔ (A − 3I3 )U = 0
−2 0 2 x 0
⇔ 0 −2 0 y = 0
2 0 −2 z 0
−2x + 2z = 0
⇔ −2y = 0
2x − 2z = 0
(
x=z
⇔
y = 0.
où
−1 0 1 −1 0 1
−1 1
P = PB0 B =
0 et P = 2 0
1 0
.
2 0
1 0 1 1 0 1
63/90
1. Diagonalisation
(a) Soit n ∈ Z∗ .
n −1
An = P D
P
−1 0 1 (−1)n 0 0 −1 0 1
1
= 0 1 0 0 1 0 0 2 0
2
n
1 0 1 0 0 3 1 0 1
(−1)n + 3n 0 (−1)n+1 + 3n
1
= 0 2 0 .
2
n+1 n n n
(−1) + 3 0 (−1) + 3
64/90
1. Diagonalisation
Donc
Par suite
X(t) = P Y (t)
1 1 1 y1 (t)
=
1 3 2 y2 (t)
.
1 2 1 y3 (t)
Ce qui conduit à
t 2t
x1 (t) = c1 + c2 e + c3 e
x2 (t) = c1 + 3c2 et + 2c3 e2t
x (t) = c + 2c et + c e2t , (c , c , c ) ∈ R3 .
3 1 2 3 1 2 3
65/90
1. Diagonalisation
3−X 4
PA (X) = = X 2 − 25 = (X + 5)(X − 5).
4 −3 − X
PA admet deux v.p distinctes λ1 = −5 et λ2 = 5, donc A est diagonalisable. Notons f l’endomorphisme
canoniquement à A et Bc = {e1 , e2 } la base canonique de R2 .
• Sous-espaces propres : Eλ1 = V ect{b1 = (1, −2)} et Eλ2 = V ect{b2 = (2, 1)}.
6 0, donc B = {b1 , b2 } est une base de R2 .
On a detBc {b1 , b2 } =
• D’après la formule de changement de base, on a
!
−5 0
D = MB (f ) = = P −1 AP,
0 5
! !
1 2 1 1 −2
où P = PBc B = et P −1 = .
−2 1 5 2 1
• Un+1 = AUn implique que
Un+1 = P DP −1 Un .
!
−1 ûn
On effectue le changement de variable suivant : Wn = P Un = .
v̂n
On déduit que ! !
û0 −1 −1
Wn+1 = DWn avec W0 = =P U0 = .
v̂0 2
(
n ûn = (−5)n û0 = (−1)n+1 5n
• Clairement, on a Wn = D W0 . Par suite :
v̂n = 5n v̂0 = 2.5n .
• Retour à Un via la matrice P : on a Un = P Wn . On obtient ainsi,
(
un = ûn + 2v̂n = 5n 4 + (−1)n+1
66/90
2. Polynômes d’endomorphismes
2. Polynômes d’endomorphismes
Dans la suite, E désigne un K-e.v, u ∈ L(E) un endomorphisme non nul de E, A ∈ Mn (K) et IdE
(resp. In ) désignera l’application identité de E (resp. la matrice identité de taille n).
Notations :
- On rappelle que la loi composée dans L(E) est notée ◦. Pour deux endomorphisme u et v de E, parfois
on écrit uv pour signifier u ◦ v.
- Le produit matriciel de deux matrices A et B est noté A.B ou tout simplement AB.
- Pour tout n ∈ N, on convient de noter :
( (
IdE si n = 0 In si n = 0
un = n−1
; An = n−1
u◦u si n 6= 0 A.A si n 6= 0
- Soit P (X) = a0 + a1 X + ... + am X m un polynôme dans K[X].
• On désigne par P (u) l’endomorphisme :
m
X
P (u) = a0 IdE + a1 u + ... + am um = ak uk , appelé polynôme en u.
k=0
• On désigne par P (A) la matrice :
m
X
m
P (A) = a0 In + a1 A + ... + am A = ak Ak , appelé polynôme en A.
k=0
L’ensemble des polynômes en u (resp. en A) sera noté comme suit :
Exemple 4 .
Remarque 2 .
Ψu : K[X] −→ LK (E)
P 7−→ P (u),
67/90
2. Polynômes d’endomorphismes
est un morphisme d’algèbre, i.e., une application linéaire et ∀P, Q ∈ K[X], on a (P Q)(u) = P (u)Q(u).
P 7−→ P (A).
Si E est un K-e.v de dimension finie, alors le polynôme caractéristique de u (resp. de A) est un polynôme
annulateur de u (resp. de A), i.e.,
Proposition 2 .
Soit A ∈ Mn (K). Si A est inversible, alors A−1 est une combinaison linéaire de In , A, ..., An−1 . i.e.,
∃α0 , ..., αn−1 ∈ K tels que
Preuve
Exemple 5 .
−3 1 −1
On considère la matrice A =
−7 5 −1 .
−6 6 −2
Déterminons A−1 par application du théorème de Cayley Hamilton.
On a PA (X) = −X 3 + 12X + 16. (à vérifier)
D’après le théorème de Cayley Hamilton, on a PA (A) = 0, i.e., −A3 + 12A + 16I3 = 0.
=⇒ A −A2 + 12I3 = −16I3 .
−1
Donc A est inversible et A−1 = (−A2 + 12I3 ).
16
68/90
2. Polynômes d’endomorphismes
Soit P un polynôme non nul de K[X]. On dit que P est un polynôme annulateur de u (resp. de A) si
P (u) = 0 (resp. P (A) = 0).
Exemple 6 .
Proposition 3 .
Si P est un polynôme non constant et annulateur de u (resp. de A), alors les valeurs propres de u (resp.
de A) sont les racines de P , i.e.,
Preuve
Donc
69/90
2. Polynômes d’endomorphismes
Définition 3 .
Exemple 7 .
Proposition 4 .
Sp(u) = m−1
u ({0}).
Preuve
Puisque mu est annulateur de u, alors d’après la proposition précédente, les valeurs propres de u sont des
racines de mu .
Inversement, comme mu divise le polynôme caractéristique Pu , alors les racines de mu sont aussi des
racines de Pu qui sont les valeurs propres de u.
70/90
2. Polynômes d’endomorphismes
Remarque 3 .
Si P et Q sont deux polynômes premiers entre eux dans K[X] tels que P Q est un polynôme annulateur
de u, alors :
Ker((P Q)(u)) = E,
Exemple 8 .
71/90
3. Trigonalisation
Proposition 6 .
Exemple 9 .
Dans un K-e.v de dimension finie, les endomorphismes suivants sont diagonalisables (en vertu de la
proposition précédente) :
1. les projecteurs ;
2. les involutions linéaires.
Exemple 10 .
1 0 0
Soit f ∈ L(R3 ) défini par la matrice suivante : A =
1 2 0 .
1 0 2
Le polynôme caractéristique de A est PA (X) = −(X − 2)2 (X − 1).
Le polynôme minimal est donc :
Or on a,
−1 0 0 0 0 0 0 0 0
(A − 2I2 )(A − I2 ) =
1 0 0
1 1 0 = 0 0 0 .
1 0 0 1 0 1 0 0 0
3. Trigonalisation
Soient E un K-e.v de dimension finie n ∈ N∗ , f un endomorphisme de E, i.e., f ∈ L(E) et A ∈ Mn (K).
On rappelle que la matrice A = (aij )1≤i,j≤n est dite triangulaire supérieure si aij = 0, ∀i > j, i.e., les
éléments situés en dessous de la diagonale principale sont tous nuls.
Définition 4 .
• L’endomorphisme f est dit trigonalisable s’il existe une base de E par rapport à laquelle la
matrice de f est triangulaire supérieure.
72/90
3. Trigonalisation
• La matrice A est dite trigonalisable si elle est semblable à une matrice triangulaire supérieure, i.e.,
s’il existe une matrice inversible P telle que P −1 AP est triangulaire supérieure.
Remarque 4 .
1. Si M est la matrice de f dans une base donnée de E, alors f est trigonalisable ssi M est trigonalisable.
2. Toute matrice (resp. endomorphisme) diagonalisable est trigonalisable.
3. Si N est une matrice semblable à A, alors N est trigonalisable ssi A est trigonalisable.
4. Les valeurs propres d’une matrice triangulaire sont les éléments de la diagonale.
5. Si T = (tij ) ∈ Mn (K) est une matrice triangulaire, alors
n
Y
PT (X) = det(T − XIn ) = (tkk − X).
k=1
Par conséquent, si A est trigonalisable alors PA est scindé dans K. Le théorème suivant montre que
cette condition est également suffisante pour que A soit trigonalisable.
Un endomorphisme f (resp. une matrice A) est trigonalisable sur E (resp. dans Mn (K)) ssi Pf (X) (resp.
PA (X)) est scindé dans K.
Corollaire 2 .
73/90
3. Trigonalisation
Exemple 11 .
0 −1 0
On considère l’endomorphisme f de L(R3 ) défini par la matrice A =
1 2 .
−4
1 1 −3
On a :
−X −1 0
2−X −4 1 −4
PA (X) = 1 2−X −4 = −X +
1 −3 − X 1 −3 − X
1 1 −3 − X
= −X [−(2 − X)(3 + X) + 4] − (3 + X) + 4
= −X X 2 + X − 2 + 1 − X
= −X(X − 1)(X + 2) + 1 − X
= (1 − X)(X 2 + 2X + 1)
= (X + 1)2 (1 − X).
u = (x, y, z) ∈ E−1 ⇔ AU = −U ⇔ (A + I3 )U = 0
1 −1 0 x 0
⇔ 1 3 −4 y = 0
1 1 −2 z 0
x−y =0
⇔ x + 3y − 4z = 0
x + y − 2z = 0
x=y
⇔ y=z
z = x.
D’où u = x(1, 1, 1) ⇒ E−1 = V ect{v2 = (1, 1, 1)}. On a donc dim(E−1 ) = 1 6= m−1 . Ainsi A n’est pas
diagonalisable. Mais PA est scindé, ce qui implique que A est trigonalisable.
74/90
3. Trigonalisation
- Déterminons Eλ1 :
u = (x, y, z) ∈ E1 ⇔ AU = U ⇔ (A − I3 )U = 0
−1 −1 0 x 0
⇔
1 1 −4 y = 0
1 1 −4 z 0
−x − y = 0
⇔ x + y − 4z = 0
x + y − 4z = 0
(
x = −y
⇔
z = 0.
D’où u = y(−1, 1, 0) ⇒ E1 = V ect{v1 = (−1, 1, 0)}.
On complète la famille {v1 , v2 } en une base B = {v1 , v2 , v3 } de R3 , par un vecteur v3 = (x, y, z), de telle
façon que MB (f ) soit triangulaire supérieure :
1 0 0
T = MB (f ) =
0 −1 .
.
0 0 −1
(
B une base de R3
Ceci revient à : .
f (v3 ) + v3 ∈ V ect{v2 }
−y x x−y
On a : f (v3 ) + v3 = Av3 + v3 = x + 2y − 4z + y = x + 3y − 4z
x + y − 3z z x + y − 2z
x−y =α
(
x=α+z
D’où : f (v3 ) + v3 ∈ V ect{v2 } ⇔ x + 3y − 4z = α , α ∈ R ⇔
x + y − 2z = α y = z.
75/90
3. Trigonalisation
Exercice 3 :
−2 2 −1
On considère l’endomorphisme f de L(R3 ) défini par la matrice A =
−1 1 −1 .
−1 2 −2
1. Vérifier que PA (X) = −(X + 1)3 .
2. En déduire que f n’est pas diagonalisable.
3. Montrer que f est trigonalisable et le trigonaliser.
Solution :
−2 − X 2 −1 −1 − X 2 −1
PA (X) = −1 1−X −1 = −1 − X 1 − X −1 C1 ← C1 + C2 + C3
−1 2 −2 − X −1 − X 2 −2 − X
1 2 −1
= (−1 − X) 1 1 − X −1
1 2 −2 − X
1 2 −1
= (−1 − X) 0 −1 − X 0 Li ← Li − L1 , i = 2, 3
0 0 −1 − X
−1 − X 0
= (−1 − X)
0 −1 − X
= (−1 − X)(−1 − X)(−1 − X)
= −(1 + X)3 .
2. Si A est diagonalisable, puisqu’elle admet une seule valeur propre qui est −1, elle serait semblable à
−I3 , et donc égale à −I3 . Ce qui est absurde, car A 6= −I3 . Par suite, A n’est pas diagonalisable et donc
f n’est pas diagonalisable.
76/90
3. Trigonalisation
- Déterminons E−1 :
u = (x, y, z) ∈ E−1 ⇔ AU = −U ⇔ (A + I3 )U = 0
−1 2 −1 x 0
⇔ −1 2 −1 y = 0
−1 2 −1 z 0
⇔ −x + 2y − z = 0
⇔ z = −x + 2y
Ainsi, tout vecteur v3 tel que (v1 , v2 , v3 ) soit libre convient. On peut chosir, par exemple x = 1, y = z = 0,
donc β = γ = −1. On a donc v3 = (1, 0, 0) et f (v3 ) = −v1 − v2 − v3 .
La matrice de passage de la base canonique Bc = {e1 , e2 , e3 } à la base B = {v1 , v2 , v3 } est :
1 0 1
P = 0 1 0 .
−1 2 0
77/90
3. Trigonalisation
Et on a :
−1 0 −1
T = P −1 AP =
0 .
−1 −1
0 0 −1
78/90
4. Exercices
4. Exercices
Exercice 1
Soient n ∈ N ∗ et A ∈ Mn (R) tels que (A − 3In )3 = 0 et A 6= 3In . (In est la matrice identité d’ordre n).
1. Vérifier que 3 est une valeur propre de A.
2. Montrer que 3 est la seule valeur propre de A.
3. A est-elle diagonalisable ? Justifier.
Exercice 2
0 1 1
Soit la matrice : A =
1 0 1 .
1 1 0
1. Diagonaliser la matrice A (on justifiera qu’elle est bien diagonalisable, on calculera une matrice de
passage ainsi que l’inverse de cette dernière).
2. Application : trouver au moins une matrice X ∈ M3 (C) (à coefficients eventuellement complexes)
qui vérifie l’équation matricielle X 2 = A.
Exercice 3
Vrai-Faux
Soit K = R ou C.
a) ∀n ∈ N∗ , ∀A ∈ Mn (K), Sp(A) 6= ∅.
b) Le Théorème de Calyey Hamilton est valable pour les endomorphismes d’un K-e.v de dimension
infinie.
c) Deux matrices carrées de même taille et semblables ont le même polynôme caractéristique.
d) Deux matrices carrées de même taille qui ont le même polynôme caractéristique sont semblables.
Exercice 4
!
2 −1
Soit A = .
−2 3
1. Déterminer PA (X).
2. Par application du Théorème de Cayley Hamilton, calculer f (A) où f est le polynôme défini par :
f (X) = X 4 − 5X 3 + 7X 2 − 2X + 5.
Exercice 5
!
1 1
Soit A = .
1 1
1. Montrer que A est diagonalisable.
79/90
4. Exercices
3 2 −2
On considère la matrice : A =
−1 0 .
1
1 1 0
1. On pose N = A − I3 . Vérifier que N est nilpotente.
2. Déterminer le polynôme minimal de A.
3. A est-elle diagonalisable ? trigonalisable ? Justifier.
Exercice 7
Vrai-Faux
Soit K = R ou C.
a) Le polynôme minimal et le polynôme caractéristique d’un endomorphisme ont les mêmes racines.
b) Un endomorphisme d’un K-e.v E est trigonalisable ssi son polynôme minimal est scindé sur K.
c) Si A est une matrice trigonalisable, alors il existe une unique matrice triangulaire supérieure sem-
blable à A.
Exercice 8
2 0 1
Soit f l’endomorphisme de R3 dont la matrice dans la base canonique Bc est A =
1 .
1 0
−1 1 3
1. Déterminer le polynôme caractéristique de A.
2. A est-elle diagonalisable ? vérifier que A est trigonalisable.
3. Vérifier que v1 = (1, 1, 0) est un vecteur propre associé à une valeur propre de A.
(v1 , v2 , v3 ) soit une base de R3 et par rapport à laquelle
tels que B =
4. Chercher deux vecteurs v2 et v3
2 α β
la matrice de f est de la forme 0 2 γ
, (on déterminera les valeurs de α, β et γ).
0 0 2
5. En utilisant la forme triangulaire de la matrice A, résoudre le système suivant :
5 x
AX = 2 , X = y .
1 z
80/90
4. Exercices
Exercice 9 (Problème)
On note C(R) l’espace vectoriel des fonctions continues de R dans R et E = C ∞ (R) l’ensemble des
fonctions indéfiniment dérivables sur R. On se propose de résoudre l’équation différentielle linéaire d’ordre
deux suivante :
ÿ − 2ẏ − y = 0. (4..1)
La résolution de l’équation (1) se fait en analyse à l’aide des racines de l’équation caractéristique associée :
r2 − 2r − 1 = 0. En particulier, si r1 et r2 sont réelles, les solution de (1) sont de la forme λer1 t + µer2 t , où
λ, µ ∈ R. Ici, le but est d’utiliser la diagonalisation des matrices carrées d’ordre 2 pour ce type d’équations
différentielles. Soit Φ l’application définie par :
Φ : E −→ C(R)
81/90
CHAPITRE 5.
EXPONENTIELLE D’UNE MATRICE
S0 = u0 ; S1 = u0 + u1 ; S2 = u0 + u1 + u2 ; ... ; Sn = u0 + u1 + ... + un .
X
- La série un converge ⇔ la suite (Sn )n converge.
n
Exemple 1 .
X an +∞ n
X a
∀a ∈ R, la série est convergente et on a = ea .
n
n! n!
n=0
X X
- La série un converge absolument si kun k converge.
n n
Remarque 1 .
Soit A = (aij )1≤i,j≤n ∈ Mn (K) une matrice et (Ak )k≥0 une suite de matrices, (Ak ) = (akij )i,j . La suite
(Ak )k≥0 converge vers A si ∀k, akij −→ aij et on note lim Ak = A.
k→+∞
On munit Mn (K) d’une norme d’algèbre quelconque k.k (i.e., une norme multiplicative, kABk ≤
82/90
1. Définitions et premières propositions
n
X Ak
Soit A ∈ Mn (K), la série est convergente et sa limite est noté exp(A) ou eA appelée l’expo-
k!
k=0
+∞
X Ak
nentielle de A. On a exp(A) = .
k!
k=0
A2 An
eA = exp(A) = In + A + + ... + + ...
2! n!
Preuve
On a ∀N ∈ N :
N N
X kAn k X kAkn
≤ −→ ekAk .
n! n! N →+∞
n=0 n=0
X An
On en déduit que la série converge absolument, donc elle est convergente. De plus, on a k exp(A)k ≤
n
n!
exp(kAk).
Proposition 1 .
Preuve
Soit A ∈ Mn (C). On a C[A] := {P (A) | P ∈ C[X]} est un sous-espace vectoriel de Mn (C) qui est de
dimension finie, donc C[A] est fermé. Et puisque,
N
X An
∀N ∈ N, SN = ∈ C[A]
n!
n=0
et
+∞ n
X A
SN −→ S = = exp(A),
n!
n=0
83/90
1. Définitions et premières propositions
Rappel :
X X n
X
Le produit de Cauchy de deux séries an et bn est la série de terme général cn = ak bn−k (i.e., la
X X n X n k=0
série cn ). Si les deux séries an et bn converges, alors leur produit de Cauchy converge et on a :
n n n
∞ ∞
! ∞
X X X
cn = ai bj .
n=0 i=0 j=0
Proposition 2 .
Si A et B sont deux matrices qui commutent (i.e., AB = BA), alors eA+B = eA .eB .
Preuve
La démonstration est basée sur le produit de Cauchy. On va montrer que eA+B est le produit de Cauchy
de eA et eB .
Soit n ∈ N, comme les deux matrices commutent, alors
n
1 1 X k k n−k
(A + B)n = Cn A B
n! n!
k=0
n
X 1 n!
= Ak B n−k
n! (n − k)!k!
k=0
n
X 1 k 1
= A B n−k
k! (n − k)!
k=0
n
X
= ak bn−k (produit de Cauchy).
k=0
X 1 X 1 X 1
Comme An et B n cv, alors (A + B)n aussi cv et on a :
n
n! n
n! n
n!
! !
X 1 X 1 X 1
(A + B)n = An Bn .
n
n! n
n! n
n!
=⇒ eA+B = eA .eB .
84/90
1. Définitions et premières propositions
Proposition 3 .
Preuve
(a) Soit A ∈ Mn (C), on sait que ∃P ∈ C[X] tel que exp(A) = P (A). Alors (a) découle du fait que
(d) On trigonalise la matrice A, ∃T ∈ Mn (C) triangulaire supérieure et P ∈ GLn (C) telles que A =
P T P −1 , et on a
T r(A) = T r(P T P −1 ) = T r(T P −1 P ) = T r(T ).
En utilisant (c), on a exp(A) = exp(T ). Donc det(exp(A)) = det(exp(T )). Or exp(T ) est une matrice
triangulaire supérieure et det(exp(T )) = exp(T r(T )). D’où le résultat.
Exemple 2 .
85/90
2. Exponentielle d’une matrice et diagonalisation
λ1 0 e λ1 0
Si D = .. est une matrice diagonale, alors eD =
..
.
. .
0 λn 0 e λn
Preuve
Soit n ∈ N, on a
n
X 1 k
λ1 0
k=0 k!
n
X 1
Sn = Dk =
.. .
.
k! n
k=0 X 1 k
0 λ
k! n
k=0
n
eλ1 0
X 1 k ..
λi = eλi , alors eD = lim Sn =
Comme lim . .
n→+∞ k! n→+∞
k=0
0 eλn
Exemple 3 .
e 0
1. exp(In ) = ..
= eIn .
.
0 e
2iπ 0 1 0
2. exp ..
= ..
= In .
. .
0 2iπ 0 1
3. exp(On ) = In .
Proposition 5 .
λ1 O
Si A est diagonalisable, i.e., ∃P inversible telle que P −1 AP = D =
..
, alors
.
O λn
e λ1 O
exp(A) = P .. −1
P .
.
O eλn
86/90
3. Cas d’une matrice nilpotente
En conséquence,
Exemple 4 .
2 4 1
On considère la matrice A =
0 1 0 .
0 0 3
On a Sp(A) = {1, 2, 3}. A admet trois valeurs propres distinctes, donc elle est diagonalisable.
Donc
1 0 0 −4 1 1
A = P DP −1 où D =
0 2 0 et P = 1 .
0 0
0 0 3 0 0 1
Par suite
e 0 0
−1
exp(A) = P 2
0 e P .
0
0 0 e3
Preuve
87/90
4. Application à la résolution des systèmes différentiels linéaires
Théorème 1 .
admet une solution unique définie, pour tout t ∈ R, par X(t) = exp(tA)X0 .
Exemple 5 .
x1 (t) ẋ1 (t)
On pose X(t) =
x2 (t) , on a alors Ẋ(t) = ẋ2 (t) et :
x3 (t) ẋ3 (t)
1 2 −3
(SD) ⇔ Ẋ(t) = AX(t) avec A =
1 4 −5 .
0 2 −2
88/90
4. Application à la résolution des systèmes différentiels linéaires
Donc
1 0 0
−1
X(t) = exp(tA)X0 = P t
0 e 0 P X0 .
2t
0 0 e
Exercice :
2 0 1
Soit la matrice : A =
1 .
−1 −1
−1 2 2
1. Calculer PA (X).
2. En déduire l’expression de exp(tA) pour tout t ∈ R.
3. Résoudre le système différentiel suivant :
ẋ1 (t) = 2x1 (t) + x3 (t)
(Sd ) ẋ2 (t) = x1 (t) − x2 (t) − x3 (t)
ẋ (t) = −x (t) + 2x (t) + 2x (t).
3 1 2 3
Solution :
1) On a :
2−X 0 1 2−X 0 1
PA (X) = 1 −1 − X −1 = 0 1−X 1−X L2 ← L2 + L3
−1 2 2−X −1 2 2−X
" #
2−X 1 2−X 0
= (1 − X) −
−1 −12−X 2
= (1 − X) (2 − X)2 + 1 − 2(2 − X)
= (1 − X)(X 2 − 2X + 1)
= −(X − 1)3 .
89/90
4. Application à la résolution des systèmes différentiels linéaires
On en déduit que
1+t t2 t + t2
exp(tA) = et
t 1 − 2t + t2 −t + t2 .
−t 2t − t2 1+t−t 2
3) Soit X(t) = (x1 (t), x2 (t), x3 (t)) la solution du système (Sd ). On sait que X(t) = exp(tA)X(0). En
notant X(0) = (a, b, c), on trouve
t 2 t 2 t
x1 (t) = a(1 + t)e + bt e + c(t + t )e
x2 (t) = atet + b(1 − t)2 et + c(−t + t2 )et
x (t) = −atet + b(2t − t2 )et + c(1 + t − t2 )et .
3
90/90