Vous êtes sur la page 1sur 90

Université Sidi Mohammed Ben Abdelah

École Nationale des Sciences Appliquées - Fès


Filière: Cycle préparatoire 2
Troisième semestre

Cours d’Algèbre 3

Prof : Z. Mazgouri

Fès, le 18 septembre 2023


TABLE DES MATIÈRES

1. Rappel d’algèbre linéaire 5


1. Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Somme directe et s.e.v supplémentaires . . . . . . . . . . . . . . . . . . . . . 5
1.3 Sous-espaces et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2. Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1 Application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Noyau et image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Applications linéaires et matrices . . . . . . . . . . . . . . . . . . . . . . . . 9

2. Formes linéaires et dualité 12


1. Forme linéaire et hyperplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.1 Forme linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Hyperplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2. Base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1 Définition et proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Détermination pratique de la base duale . . . . . . . . . . . . . . . . . . . . 17
3. Prolongement des formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4. Base préduale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5. Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
6. Bidual d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
7. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2/90
TABLE DES MATIÈRES

3. Formes bilinéaires et formes quadratiques 28


1. Formes bilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.1 Définition et exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.2 Écriture matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.3 Forme bilinéaire symétrique - anti-symétrique . . . . . . . . . . . . . . . . . 31
1.4 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2. Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3. Forme bilinéaire symétrique non dégénérée . . . . . . . . . . . . . . . . . . . . . . . 35
4. Orthogonalité et vecteurs isotropes . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.2 Formes quadratiques et orthogonalité . . . . . . . . . . . . . . . . . . . . . . 40
5. Décomposition en carrés d’une forme quadratique . . . . . . . . . . . . . . . . . . . 40
5.1 Exemple et position du problème . . . . . . . . . . . . . . . . . . . . . . . . 40
5.2 Décomposition en carrées d’une forme quadratique : méthode de Gauss . . . 42
6. Signature d’une forme quadratique réelle . . . . . . . . . . . . . . . . . . . . . . . . 47
7. Espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
7.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
7.2 Inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
8. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

4. Réduction des endomorphismes 56


1. Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.1 Rappel sur la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.2 Exemple de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1.3 Applications de la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . 61
2. Polynômes d’endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.1 Polynôme annulateur et polynôme minimal . . . . . . . . . . . . . . . . . . . 69
2.2 Retour à la diagonalisation via le polynôme minimal . . . . . . . . . . . . . 71
3. Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

5. Exponentielle d’une matrice 82


1. Définitions et premières propositions . . . . . . . . . . . . . . . . . . . . . . . . . . 82
2. Exponentielle d’une matrice et diagonalisation . . . . . . . . . . . . . . . . . . . . . 86

3/90
TABLE DES MATIÈRES

3. Cas d’une matrice nilpotente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87


4. Application à la résolution des systèmes différentiels linéaires . . . . . . . . . . . . . 88

4/90
CHAPITRE 1.

RAPPEL D’ALGÈBRE LINÉAIRE

Dans tout ce chapitre, K désigne le corps R ou C.

1. Sous-espaces vectoriels
1.1 Sous-espace vectoriel
Définition 1 (Sous-espace vectoriel).

Une partie F d’un K-espace vectoriel E est un sous-espace vectoriel de E si :


• F est non vide ;
• pour tous u, v ∈ F , on a u + v ∈ F ;
• pour tout u ∈ F et tout α ∈ K, on a αu ∈ F .

Notation :
- Un K-espace vectoriel sera souvent noté par la suite par K-e.v.
- On écrit parfois s.e.v de E pour dire sous-espace vectoriel de E.

1.2 Somme directe et s.e.v supplémentaires


Définition 2 .

Soient E un K-e.v et F et G deux s.e.v de E.


L’ensemble F + G := {x + y : x ∈ F, y ∈ G} est un s.e.v de E appelé la somme des s.e.v F et G.

5/90
1. Sous-espaces vectoriels

Définition 3 (Somme directe).

La somme F + G est dite directe si F ∩ G = {0E }. On la note F ⊕ G.

Proposition 1 .

Les propositions suivantes sont équivalentes :


(i) La somme F + G est directe ;
(ii) pour tout x ∈ F + G, ∃!(x1 , x2 ) ∈ F × G tel que x = x1 + x2 .

Définition 4 (s.e.v supplémentaires).

Soient E un K-e.v et F et G deux s.e.v de E.


F et G sont dits supplémentaires dans E si F ⊕ G = E.

Proposition 2 .

Les propositions suivantes sont équivalentes :


(i) F et G sont supplémentaires dans E ;
(ii) F + G = E et F ∩ G = {0E } ;
ϕ : F × G −→ E
(iii) l’application est bijective.
(x1 , x2 ) 7−→ x1 + x2
(i.e., ∀x ∈ E, ∃!(x1 , x2 ) ∈ F × G tel que x = x1 + x2 ).

1.3 Sous-espaces et dimension


Rappelons que sur un corps K, un espace vectoriel E est dit de dimension finie s’il possède une famille
génératrice finie. Dans le cas contraire, on dit que E est de dimension infinie.

Exemple 1 .

dim(Rn [X]) = n + 1 ; K[X] est de dimension infinie.

Proposition 3 .

Soient E un K-e.v de dimension finie et F un s.e.v de E. Alors


(i) F est de dimension finie et on a dim(F ) ≤ dim(E).
(ii) dim(F ) = dim(E) ⇔ E = F .

6/90
2. Applications linéaires

Théorème 1 .

Soit E un K-e.v de dimension finie. Alors pour tous s.e.v F et G de E, on a :

dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).

Remarque 1 .

Si F et G sont supplémentaires dans E, alors

dim(F + G) = dim(F ) + dim(G).

Proposition 4 .

Soient E un K-e.v de dimension finie et F et G deux s.e.v de E. Les propositions suivantes sont équiva-
lentes :
(i) F et G sont supplémentaires dans E ;
(ii) dim(F ) + dim(G) = dim(E) et F ∩ G = {0E }.

Théorème 2 .

Tout s.e.v F d’un K-e.v E de dimension finie admet un supplémentaire G dans E, et on a :

dim(F ) + dim(G) = dim(E).

2. Applications linéaires
2.1 Application linéaire
Définition 5 (Application linéaire).

Soient E et F deux K-e.v et f une application de E dans F , f est dite linéaire si :


(i) ∀x, y ∈ E, f (x + y) = f (x) + f (y) ;
(ii) ∀x ∈ E, ∀λ ∈ K, f (λx) = λf (x).

Remarque 2 .

1- L’ensemble des applications linéaires de E dans F se note L(E, F ).


2- L(E, F ) est un K-e.v pour les lois :
(i) f + g : E −→ F, x 7−→ f (x) + g(x) ;

7/90
2. Applications linéaires

(ii) λ.f : E −→ F, x 7−→ λf (x).


3- Si E et F sont de dimension finie, alors L(E, F ) est de dimension finie et on a :

dim(L(E, F )) = dim(E) × dim(F ).

Définition 6 .

Soient E et F deux K-e.v et f ∈ L(E, F ). L’application f est dite :


• Un isomorphisme d’espaces vectoriels si f est bijective. On écrit f ∈ Isom(E, F ).
• Un endomorphisme de E si E = F . On écrit f ∈ L(E).
• Un automorphisme de E si f est un endomorphisme bijectif. On écrit f ∈ Aut(E).

Exemple 2 .

1. Soit E = Rn . L’application hλ : E −→ E, x 7−→ λx est linéaire.


2. Soit E = K[X]. L’application D : E −→ E définie par D(P ) = P 0 est linéaire.
3. Soit E = C([a, b], R) l’espace vectoriel des applications numériques continues sur [a, b]. L’application
Z b
f : E −→ R, ϕ 7−→ ϕ(t)dt est linéaire.
a

2.2 Noyau et image


Définition 7 (Noyau et image).

Soit f : E −→ F une application linéaire.


- Le noyau de f est l’ensemble : Ker(f ) := f −1 ({0F }) = {x ∈ E : f (x) = 0F }.
- L’image de f est l’ensemble : Im(f ) := f (E) = {f (x) : x ∈ E}.

Proposition 5 .

Soit f : E −→ F une application linéaire.


• L’image d’un s.e.v de E par f est un s.e.v de F . En particulier Im(f ) est un s.e.v de F .
• L’image réciproque d’un s.e.v de F par f est un s.e.v de E. En particulier Ker(f ) est un s.e.v de
E.

Proposition 6 .

Soit f : E −→ F une application linéaire.


• f est injective si et seulement si Ker(f ) = {0E }.
• f est surjective si et seulement si Im(f ) = F .

8/90
2. Applications linéaires

Proposition 7 .

Soient E et F deux K-e.v de dimension finie et f ∈ L(E, F ).


Si dim(E) = dim(F ), alors

f injective ⇔ f surjective ⇔ f bijective.

Définition 8 (Rang d’une application linéaire).

Soient E et F deux K-e.v de dimension finie et f ∈ L(E, F ). Le rang de f noté rg(f ) est défini par :

rg(f ) := dim(Im(f )).

Théorème 3 (Théorème du rang).

Soient E et F deux K-e.v de dimension finie et f ∈ L(E, F ). Alors

dim(E) = dim(Ker(f )) + rg(f ).

Question : Est-ce qu’on a toujours E = Ker(f ) ⊕ Im(f ) ? Réponse : Non.


Contre exemple : Soient E = R2 et f : E −→ E définie par f (x, y) = (0, x).
On a :
Ker(f ) = Im(f ) = {(0, x) | x ∈ R}.
Donc
Ker(f ) ∩ Im(f ) = {(0, x) | x ∈ R} =
6 {0E }.

2.3 Applications linéaires et matrices


Définition 9 (Matrice d’une application linéaire).

Soient E et F deux K-e.v de dimensions finies respectivement n et m et f ∈ L(E, F ).


Soient B = {e1 , ..., en } une base de E et B 0 = {e01 , ..., e0m } une base de F .
On appelle matrice de l’application f dans les bases B et B 0 , la matrice notée MBB0 (f ) ∈ Mmn (K) dont
les colonnes sont les composantes des vecteurs f (e1 ), ..., f (en ) dans la base B 0 .
 
a11 · · · a1n
 
 a21 · · · a2n 
MBB0 (f ) =  . .
 
 .. .
.. 
 
am1 · · · amn

9/90
2. Applications linéaires

Exemple 3 .

Soient E = K3 [X] et F = K2 [X]. On considère l’application dérivation D : E −→ F définie pour tout


P ∈ K3 [X] par D(P ) = P 0 .
Pour B = {1, X, X 2 , X 3 } et B 0 = {1, X, X 2 }, on a :
 
0 1 0 0
 
MBB0 (D) = 
 0 0 2 0 .

0 0 0 3

Définition 10 .

Soient B = {e1 , ..., en } et B 0 = {e01 , ..., e0n } deux bases d’un K-e.v de dimension finie n. La matrice de
passage de la base B à la base B 0 notée PBB0 = (pij )1≤i,j≤n ∈ Mn (K) est la matrice définie par :

PBB0 = MB0 B (idE ).

Exemple 4 .

Soit E = R3 muni  de sa base canonique Bc = {e1 , e2 , e3 }. On considère une autre base B formée par les
 b1 = (1, 1, 1)


vecteurs suivants : b2 = (3, 2, 0)


 b = (−1, 0, 1)
3
On a : 
 idE (b1 ) = b1 = (1, 1, 1) = 1e1 + 1e2 + 1e3


idE (b2 ) = b2 = (3, 2, 0) = 3e1 + 2e2 + 0e3


 id (b ) = b = (−1, 0, 1) = −1e + 0e + 1e
E 3 3 1 2 3

Alors la matrice de passage de la base Bc à la base B est :


 
1 3 −1
 
PBc B = MBBc (idE ) =  1 2 0 .

1 0 1

Remarque 3 .

- Pour obtenir la matrice de passage d’une base initiale B à une nouvelle base B 0 , on exprime chaque
élément de la base B 0 en fonction des éléments de la base B.

10/90
2. Applications linéaires

- La matrice PBB0 est inversible et on a (PBB0 )−1 = PB0 B .

Proposition 8 (Changement de coordonnées pour un vecteur).

Soient B = {e1 , ..., en } et B 0 = {e01 , ..., e0n } deux bases d’un K-e.v de dimension finie n.
   
n n
x1 x01
 . 
..  ; X 0 =  ... .
X X
x0i e0i et X = 
 
Si x = xi e i =    
i=1 i=1 0
xn xn
0 0 −1
Alors X = PBB0 X et X = (PBB0 ) X.

Proposition 9 (Changement de matrice pour une application linéaire).

Soient :
• E et F deux K-e.v de dimensions finies et f ∈ L(E, F ).
• B1 et B2 deux bases de E.
• B10 et B20 deux bases de F .
Alors on a :
MB2 B20 (f ) = PB20 B10 MB1 B10 (f )PB1 B2 .

Cas particulier : le cas F = E


Dans le cas particulier d’un endomorphisme f ∈ L(E) (i.e., F = E), si l’on choisit B10 = B1 et B20 = B2 ,
la relation précédente devient :
MB2 (f ) = PB2 B1 MB1 (f )PB1 B2 .

MB2 (f ) = (PB1 B2 )−1 MB1 (f )PB1 B2 .

Dans ce cas, les matrices MB1 (f ) et MB2 (f ) sont dites semblables.

11/90
CHAPITRE 2.

FORMES LINÉAIRES ET DUALITÉ

Dans tout ce chapitre le corps K = R ou C.

1. Forme linéaire et hyperplan


1.1 Forme linéaire
Définition 1 (Forme linéaire).

Soit E un K-espace vectoriel.


On appelle forme linéaire sur E toute application linéaire f : E → K.
L’espace vectoriel L(E, K) des formes linéaires sur E est appelé l’espace dual de E. On le note E ∗ .

Exemple 1 .

1. L’application f : R2 −→ R définie par f (x, y) = 3x − y est une forme linéaire sur R2 .


2. Plus généralement, soit (λ1 , ..., λn ) un vecteur fixé de Kn où n ∈ N∗ . L’application f : Kn −→ K
n
X
définie par f (x1 , ..., xn ) = λi xi est une forme linéaire sur Kn .
i=1
3. Soit a ∈ R, l’application ϕa : Rn [X] −→ R définie par ϕa (P ) = P (a) est une forme linéaire sur
Rn [X].
n
X
4. L’application g : Mn (R) −→ R définie, pour A = (aij )1≤i,j≤n , par g(A) = T r(A) = aii est une
i=1
forme linéaire sur Mn (R).

12/90
1. Forme linéaire et hyperplan

Remarque 1 .

1. E ∗ = L(E, K) est un espace vectoriel sur K. En effet, on sait que si F et G sont deux K-espaces
vectoriels, alors ((L(F, G), +, .) est un K-espace vectoriel.
2. Si E est de dimension finie sur K alors E ∗ est aussi de dimension finie et on a

dim(E) = dim(E ∗ )

En effet,
dim(E ∗ ) = dim(L(E, K)) = dim(E) × dim(K) = dim(E).

Donc, en particulier, si E est de dimension finie, alors E et E ∗ sont isomorphes.

1.2 Hyperplan
Définition 2 (Hyperplan).

Soit E un K-espace vectoriel.


On appelle hyperplan de E, le noyau de toute forme linéaire non nulle sur E.
H est un hyperplan de E ⇔ ∃f ∈ E ∗ tel que f 6= 0 et H = ker(f ).
On dit aussi que H est un hyperplan d’équation f (x) = 0.

Exemple 2 .

1. H = {(x, y, z) ∈ R3 | x − 2y + 3z = 0} est un hyperplan de R3 .


2. H = {P ∈ K[X] | P (0) = 0} est un hyperplan de K[X].
3. H = {A ∈ Mn (K) | T r(A) = 0} est un hyperplan de Mn (K).

Proposition 1 .

Soit E un K-espace vectoriel et H un s.e.v de E. Alors les propositions suivantes sont équivalentes :
1. H est un hyperplan de E.
2. Il existe une droite vectorielle D telle que E = H ⊕ D.

Preuve

1) =⇒ 2)
Supposons que H est un hyperplan de E. ∃ϕ : E → K, ϕ 6= 0 telle que H = Ker(ϕ).

13/90
1. Forme linéaire et hyperplan

ϕ 6= 0 ⇔ ∃u ∈ E \ {0} tel que ϕ(u) 6= 0.


On considère la droite D = V ect(u). Montrons que E = H ⊕ D.
On cherche à montrer (que E = H + D(et H ∩ D = {0E }.
x∈H ϕ(x) = 0
- Soit x ∈ H ∩ D =⇒ =⇒ =⇒ ϕ(λu) = λϕ(u) = 0.
x∈D ∃λ ∈ K : x = λu
Et puisque ϕ(u) 6= 0, on déduit que λ = 0. D’où x = 0.
Ce qui montre que H ∩ D = {0E }.
ϕ(x)
- Reste à montrer que E = H + D. Soit x ∈ E et posons λ = .
ϕ(u)
On a x = (x − λu) + λu et
 
ϕ(x) ϕ(x)
ϕ(x − λu) = ϕ x − u = ϕ(x) − ϕ(u) = 0.
ϕ(u) ϕ(u)

Donc (x − λu) ∈ H. Finalement, on a x = (x − λu) + |{z}


λu . D’où E = H + D.
| {z }
∈H ∈D
2) =⇒ 1)
Si E = H ⊕ D avec D = V ect(u).
On considère l’application :
ψ: H ⊕ D −→ K
x = h + λu 7−→ λ
ψ est une forme linéaire et on a

x = h + λu ∈ Ker(ψ) ⇔ ψ(x) = λ = 0 ⇔ x = h ∈ H.

Donc Ker(ψ) = H. Ainsi, H est un hyperplan de E.

Théorème 1 .

Si la dimension de E est finie alors,


H est un hyperplan de E si et seulement si dim(H) = dim(E) − 1.
(En d’autre terme, un hyperplan est un s.e.v de co-dimension 1).

Preuve

Posons dim(E) = n.
- Soit H un hyperplan de E. Il existe f une forme linéaire non nulle sur E telle que :

H = ker(f ) = {x ∈ E : f (x) = 0}.

Puisque f est non nulle, alors Im(f ) 6= {0K }. D’autre part, Im(f ) est un s.e.v de K. Or, les seuls s.e.v de
K sont {0K } et K. Donc Im(f ) = K et par conséquent dim(Im(f )) = dim(K) = 1.

14/90
2. Base duale

D’après le théorème du rang on a

dim(H) = dim(ker(f )) = n − dim(Im(f )) = n − 1.

- Réciproquement si H est un s.e.v. de E de dimension n − 1, alors H possède une base (f1 , ..., fn−1 ) qu’on
complète en une base (f1 , ..., fn ) de E. H est alors le noyau de la forme linéaire :

fn∗ : E −→ K
n
X
x= xj fj 7−→ fn∗ (x) = xn .
j=1

En effet, l’inclusion H ⊂ Ker(fn∗ ) est facile. Montrons Ker(fn∗ ) ⊂ H.


Xn n−1
X
∗ ∗
Soit x = xj fj ∈ Ker(fn ), on a fn (x) = xn = 0. Donc x = xj fj ∈ H.
j=1 j=1

Remarque 2 .

La preuve de ce théorème découle immédiatement de la proposition précédente. En effet, on a


H hyperplan ⇔ E = H ⊕ D avec dim(D) = 1.
Par suite dim(H) = dim(E) − 1.

2. Base duale
2.1 Définition et proposition
Soit E un K-e.v de dimension finie n et B = {e1 , ..., en } une base de E. Pour tout i ∈ {1, ..., n}, on
considère l’application :
e∗i : E −→ K
n
X
x= xj ej 7−→ e∗i (x) = xi .
j=1

L’application e∗i est une forme linéaire sur E. En effet, pour tous x, y ∈ E et tous α, β ∈ K, on a :
 
Xn
e∗i (αx + βy) = e∗i  (αxj + βyj )ej  = αxi + βyi = αe∗i (x) + βe∗i (y).
j=1

Remarque 3 .

Pour tout i, j ∈ {1, ..., n}, on a :


(
1 si i = j
e∗i (ej ) = δij = .
0 si i 6= j

15/90
2. Base duale

δij est appelé symbole de Kronecker.


Pour tout i ∈ {1, ..., n}, la forme linéaire e∗i est appelée (forme coordonnée) ou forme duale associée à
l’élément ei de la base B.

Proposition 2 (Base duale).

La famille B ∗ = {e∗1 , ..., e∗n } est une base de l’espace dual E ∗ appelée base duale de E associée à B.

Preuve

On sait que dim(E ∗ ) = dim(E) = n, donc Card(B ∗ ) = n = dim(E ∗ ). Il suffit de vérifier que B ∗ est libre.
n
X
n
Soit (α1 , ..., αn ) ∈ K tel que αi e∗i = 0, a t-on α1 = α2 = ... = αn = 0 ?
i=1
n
X n
X
On a αi e∗i = 0, donc αi e∗i (x) = 0, ∀x ∈ E. En prenant x = ej , 1 ≤ j ≤ n, on a
i=1 i=1

n
X
αi e∗i (ej ) = αj = 0, 1 ≤ j ≤ n.
i=1

Donc la famille {e∗1 , ..., e∗n } est libre. Ainsi B ∗ est une base de E ∗ .

Proposition 3 .

Soient E un K-espace vectoriel de dimension finie n, B = {e1 , ..., en } une base de E et B ∗ = {e∗1 , ..., e∗n }
sa base duale. Alors, on a :
X n
1) ∀x ∈ E, x = e∗i (x)ei .
i=1
Xn
2) ∀ϕ ∈ E ∗ , ϕ = ϕ(ei )e∗i .
i=1
3) ∀f ∈ L(E), aij = e∗i (f (ej )) où MB (f ) = (aij )1≤i,j≤n désigne la matrice de f dans la base B.

Preuve
n
X
1) Soit x ∈ E, x = λi ei , λi ∈ K. Pour j ∈ {1, ..., n}, on a
i=1

n n
!
X X
e∗j (x) = e∗j λi ei = λi e∗j (ei ) = λj .
i=1 i=1

n
X
D’où x = e∗i (x)ei .
i=1

16/90
2. Base duale

n
X
2) Soit ϕ ∈ E ∗ , ϕ = λi e∗i . Pour j ∈ {1, ..., n}, on a
i=1

n n
!
X X
ϕ(ej ) = λi e∗i (ej ) = λi e∗i (ej ) = λj .
i=1 i=1

n
X
D’où ϕ = ϕ(ei )e∗i .
i=1
3) Soit f ∈ L(E) un endomorphisme de E. On a :

 
a11 · · · a1n n
 . ..  X
M at(f, B) =  ..
 . 
 et f (e j ) = akj ek .
k=1
an1 · · · ann

Alors, pour i, j ∈ {1, ..., n}, on a :


n n
!
X X
e∗i (f (ej )) = e∗i akj ek = akj e∗i (ek ) = aij .
k=1 k=1

2.2 Détermination pratique de la base duale


Étant donné une base B d’un K e.v E, comment déterminer sa base duale B ∗ ?
On suppose que les coordonnées des vecteurs de B sont données dans une autre base B0 de E (la base
canonique par exemple) et on utilise le résultat suivant :

Proposition 4 .

Soit B1 et B2 deux bases d’un K-espace vectoriel de dimension finie E et soit P la matrice de passage de
B1 à B2 . Alors, la matrice de passage de B1∗ à B2∗ est (P −1 )t .

Preuve

Soient B1 = {e1 , ..., en } et B2 = {f1 , ..., fn } deux bases de E.


On pose P = (aij )1≤i,j≤n = PB1 B2 et Q = (bij )1≤i,j≤n = PB1∗ B2∗ . (matrices de passage)
Il s’agit de montrer que Qt P = In .
Xn n
X
On a fk = aik ei pour k ∈ {1, ..., n} et fj∗ = bij e∗i pour j ∈ {1, ..., n}.
i=1 i=1
n
X
Posons Qt P = (cij )1≤i,j≤n . On a cij = bki akj pour i, j, k ∈ {1, ..., n}.
k=1

17/90
2. Base duale

D’autre part on a,
n
!
X
fi∗ (fj ) = fi∗ aij ei
i=1
n n
!
X X
= bki e∗k aij ei
k=1 i=1
Xn Xn
= bki aij e∗k (ei )
k=1 i=1
n
X
= bki akj
k=1
= cij .

Donc cij = δij , i.e., C = In .


D’où Qt P = In et par suite Q = (P −1 )t .

Application :
On considère les vecteurs u1 = (−3, −2, 7), u2 = (3, −1, −5) et u3 = (1, −3, 0) de R3 exprimés dans la
base canonique B0 = {e1 , e2 , e3 }.
1. Montrer que la famille B = {u1 , u2 , u3 } est une base de R3 .
2. Déterminer la base duale de B.
Solution :
1. Card(B) = 3 = dim(R3 ). Il suffit de montrer qu’elle est libre.

−3 3 1
On a : −2 −1 −3 = −1 6= 0. Donc B est une base de R3 .
7 −5 0

2. Soit B ∗ = {u∗1 , u∗2 , u∗3 } la base duale de B et notons B0∗ = {e∗1 , e∗2 , e∗3 } la base duale de la base
canonique B0 .
 
−3 3 1
 
La matrice de passage de B0 à B est P = 
 −2 −1 −3 .

7 −5 0

La matrice de passage de B0∗ à B ∗ est donnée par Q = (P −1 )t .

18/90
3. Prolongement des formes linéaires

   
−15 −21 17 −15 −5 −8
t
   
Ona : com(P ) = 
 −5 −7 6  et (com(P )) =  −21 −7 −11 .
 
−8 −11 9 17 6 9
 
15 5 8
1
Donc P −1 = (com(P ))t = 
 
21 7 11 .
det(P )  
−17 −6 −9
  
∗ ∗ ∗ ∗
15 21 −17  u1 = 15e1 + 5e2 + 8e3


 
D’où : Q =  ∗ ∗ ∗ ∗
 5 7 −6  et par suite  u2 = 21e1 + 7e2 + 11e3

8 11 −9  u∗ = −17e∗ − 6e∗ − 9e∗

3 1 2 3

3. Prolongement des formes linéaires


Théorème 2 (Théorème du prolongement).

Soient E un K-espace vectoriel de dimension finie n et F un sous-espace vectoriel de E, alors :


Toute forme linéaire ψ de F se prolonge en une forme linéaire ϕ sur E.

∀ψ ∈ F ∗ , ∃ϕ ∈ E ∗ telle que ϕ/F = ψ.

Preuve

Puisque F est un sev de E, alors F possède au moins un supplémentaire G dans E, c.à.d E = F ⊕ G.


Soit ψ ∈ F ∗ , considérons la forme linéaire ϕ ∈ E ∗ définie par :

ϕ: E = F ⊕ G −→ K
x = x1 + x2 7−→ ϕ(x) = ψ(x1 ).

On a ϕ ∈ E ∗ et ϕ/F = ψ. Alors ϕ est un prolongement de ψ à E.

4. Base préduale
Proposition 5 .

1) Pour toute forme linéaire ϕ ∈ E ∗ , ∃x ∈ E tel que ϕ(x) = 1.


2) Pour tout vecteur non nul x ∈ E, ∃ϕ ∈ E ∗ telle que ϕ(x) = 1.

19/90
4. Base préduale

Preuve

1) Si ϕ ∈ E ∗ est une forme linéaire non nulle, alors il existe u ∈ E tel que ϕ(u) 6= 0.
u ϕ(u)
Pour x = , on a ϕ(x) = = 1.
ϕ(u) ϕ(u)
2) Soit F = V ect(x) et soit ψ la forme linéaire sur F définie, pour tout y = αx ∈ F par ψ(y) = α.
D’après le théorème précédent, ψ se prolonge en une forme linéaire ϕ sur E. Donc on a

ϕ(x) = ψ(x) = 1.

Théorème 3 (Base préduale).

Soit E un K-espace vectoriel de dimension finie.


Toute base B ∗ de E ∗ est la base duale d’une base unique B de E appelée base préduale de B ∗ .

Preuve

Soit B ∗ = {f1 , ..., fn } une base de E ∗ . On considère l’application :

ψ : E −→ Kn
x 7−→ ψ(x) = (f1 (x), ..., fn (x)).

- ψ est linéaire car fi le sont.


- ψ est injective. En effet, soit x ∈ E tel que ψ(x) = 0. Donc, fi (x) = 0, ∀i ∈ {1, ..., n}.
Xn
Supposons par l’absurde que x 6= 0. Alors, d’après la proposition précédente, ∃ϕ = λi fi ∈ E ∗ telle que
i=1
n
X
ϕ(x) = 1. Par suite, 1 = ϕ(x) = λi fi (x) = 0. Ce qui est absurde. Donc x = 0, ainsi ψ est injective.
i=1
Et comme dim(E) = dim(Kn ), alors ψ est bijective. D’où ψ est un isomorphisme.
Notons {α1 , ..., αn } la base canonique de Kn , on a αj = (0, ..., 1, 0, ...) (1 en j ème place).
Soit B = {ψ −1 (α1 ), ..., ψ −1 (αn )}. Puisque ψ est un isomorphisme, B est une base de E.
Montrons que B ∗ est la base duale de B.
On a
ψ(ψ −1 (αj )) = αj = (0, ..., 1, 0, ...) = (f1 (ψ −1 (αj )), ..., fn (ψ −1 (αj ))).

Donc, (
1 si i = j
fi (ψ −1 (αj )) = δij = .
0 si i 6= j
Ainsi, B ∗ est la base duale de B.
Reste à montrer l’unicité.
Soit B 0 une autre base de E dont la base duale est B ∗ .

20/90
4. Base préduale

Posons P = PBB0 et Q = PB∗ B∗ . On sait que

In = Q = (P −1 )t .

On conclut que B 0 = B. D’où l’unicité.

Exemple 3 .

Soient l’espace vectoriel E = R2 et B = {e1 , e2 } sa base canonique. On considère les formes linéaires

f1 = 2e∗1 + e∗2 , f2 = −e∗1 − e∗2 .

Vérifier que {f1 , f2 } est une base de l’espace dual E ∗ et trouver sa base préduale.
Correction :
- On a Card({f1 , f2 }) = 2 = dim(R2 )∗ . Il suffit de montrer que {f1 , f2 } est libre.
2 −1
On a : DetB∗ (f1 , f2 ) = = −1 6= 0. Donc {f1 , f2 } est une base de E ∗ .
1 −1
- Trouvons sa base préduale.
Soit {u1 , u2 } la base préduale de {f1 , f2 }. Posons : u1 = αe1 + βe2 ; u2 = λe1 + γe2 .
On a {f1 , f2 } est la base duale de {u1 , u2 }, donc ∀i, j, fi (uj ) = δij .
Donc
( ( (
f1 (u1 ) = 1 2α + β = 1 α=1
⇒ ⇒ ⇒ u1 = e1 − e2 .
f2 (u1 ) = 0 −α − β = 0 β = −1.
( ( (
f1 (u2 ) = 0 2λ + γ = 0 λ=1
⇒ ⇒ ⇒ u2 = e1 − 2e2 .
f2 (u2 ) = 1 −λ − γ = 1 γ = −2.

D’où la base préduale de {f1 , f2 } est {(1, −1), (1, −2)}.

Exemple 4 .

Soit l’espace vectoriel E = R1 [X] = {aX + b | a, b ∈ R}. On considère les formes linéaires f1 , f2 ∈ E ∗
définies par : Z 1 Z 2
∀P ∈ E, f1 (P ) = P (t)dt et f2 (P ) = P (t)dt.
0 0
1. Montrer que B ∗ = {f1 , f2 } est une base de l’espace dual E ∗ .
2. Déterminer la base B de E préduale de B ∗ .
Correction :
1- Comme dim(E ∗ ) = card(B ∗ ) = 2. Alors il suffit de montrer que la famille B ∗ est libre.

21/90
5. Orthogonalité

Soient α, β ∈ R tels que αf1 + βf2 = 0.


Donc, ∀P ∈ E, on a : αf1 (P ) + βf2 (P ) = 0.
 Z 1  2 1
at a
 f1 (P ) = (at + b)dt = + bt = + b


Soit P = aX + b ∈ E, a, b ∈ R. On a : Z0 2 2 0 2

 f2 (P ) =
 (at + b)dt = 2a + 2b.
0
Alors,
a
αf1 (P ) + βf2 (P ) = 0 ⇔ α( + b) + β(2a + 2b) = 0
2
α
⇔ a( + 2β) + b(α + 2β) = 0
2
 α + 2β = 0
⇔ 2
 α + 2β = 0
⇔ α = β = 0.

D’où B ∗ = {f1 , f2 } est une base de l’espace dual E ∗ .


2- Déterminons la base B de E préduale de B ∗ .
Soit B = {P1 , P2 } la base préduale de B ∗ . On a, B ∗ la base duale de B, donc ∀i, j, fi (Pj ) = δij .
On pose Pi = aX + b. Donc

 a +b=1
(  (
f1 (P1 ) = 1 a = −2
⇒ 2 ⇒ ⇒ P1 = −2X + 2.
f2 (P1 ) = 0  2a + 2b = 0 b = 2.
a
(  
f1 (P2 ) = 0  +b=0  a=1 1
⇒ 2 ⇒ 1 ⇒ P2 = X − 2 .
f2 (P2 ) = 1  2a + 2b = 1  b=− .
2
D’où la base préduale de B ∗ est B = {P1 , P2 }.

5. Orthogonalité
Définition 3 .

Soit E un K-espace vectoriel.


Pour toute partie non vide A de E, l’orthogonal de A, qu’on note A⊥ , est la partie de E ∗ définie par

∀ϕ ∈ E ∗ , ϕ ∈ A⊥ ⇔ ∀x ∈ A, ϕ(x) = 0.

A⊥ = {ϕ ∈ E ∗ : ∀x ∈ A, ϕ(x) = 0}.

22/90
6. Bidual d’un espace vectoriel

Proposition 6 .

Soit E un K-espace vectoriel. Alors


1. Pour toute partie A de E et pour toute partie B de E, on a

A ⊆ B =⇒ B ⊥ ⊆ A⊥ .

2. Pour toute partie A de E, A⊥ est un sous-espace vectoriel de E ∗ .


3. Pour toute partie A de E, A⊥ = (V ect(A))⊥ .
4. E ⊥ = {0E ∗ }.

Preuve

1. Supposons que A ⊆ B et soit ϕ ∈ E ∗ . On a

ϕ ∈ B ⊥ =⇒ ∀x ∈ B, ϕ(x) = 0
=⇒ ∀x ∈ A, ϕ(x) = 0 (carA ⊆ B)
=⇒ ϕ ∈ A⊥ .

2. Pour tout x ∈ E, soit l’application Jx définie par :

Jx : E ∗ −→ K
ϕ 7−→ Jx (ϕ) = ϕ(x).
\
Alors, Jx est une forme linéaire sur E ∗ et on a A⊥ = ker(Jx ).
x∈A
Donc A⊥ est un sous-espace vectoriel de E ∗ .
3. On a A ⊆ V ect(A). Donc d’après 1), (V ect(A))⊥ ⊆ A⊥ .
Xn
Soit ϕ ∈ A⊥ et soit x ∈ V ect(A) avec x = λi xi , où xi ∈ A.
i=1
n
X
On a ϕ(x) = λi ϕ(xi ) = 0. Ainsi, ϕ ∈ (V ect(A))⊥ .
i=1
4. Si ϕ ∈ E ⊥ , alors ∀x ∈ E, ϕ(x) = 0. Par suite ϕ = 0.

6. Bidual d’un espace vectoriel

23/90
6. Bidual d’un espace vectoriel

Définition 4 (Bidual).

Soit E un K-espace vectoriel, On appelle bidual de E, qu’on note E ∗∗ , l’espace vectoriel dual de E ∗ .

E ∗∗ = (E ∗ )∗ = L(E ∗ , K).

Proposition 7 .

Soit E un K-espace vectoriel de dimension finie n. Alors, les espaces vectoriels E et E ∗∗ sont isomorphes,
i.e., il existe un isomorphisme entre E et E ∗∗ .

Preuve

On considère :
J : E −→ E ∗∗
x 7−→ Jx = J(x)
avec
Jx : E ∗ −→ K
ϕ 7−→ Jx (ϕ) = ϕ(x).
1) Pour tout x ∈ E, Jx ∈ E ∗∗ .
En effet, soient ϕ1 , ϕ2 ∈ E ∗ , α, β ∈ K, on a

Jx (αϕ1 + βϕ2 ) = (αϕ1 + βϕ2 )(x) = αϕ1 (x) + βϕ2 (x) = αJx (ϕ1 ) + βJx (ϕ2 ).

2) J est une application linéaire.


En effet, soient x, y ∈ E, α, β ∈ K, et ϕ ∈ E ∗ , on a

(J(αx + βy))(ϕ) = ϕ(αx + βy) = (αJ(x) + βJ(y))(ϕ).

3) Reste à montrer que J est bijective.


Il suffit de montrer que J est injective car dim(E) = dim(E ∗∗ ).
Soient x ∈ E tel que J(x) = 0 et (e1 , e2 , ..., en ) une base de E.
Donc, ∀i ∈ {1, 2, ..., n}, J(x)(e∗i ) = e∗i (x) = 0. Par suite x = 0. Ainsi J est injective.

Remarque 4 .

Cet isomorphisme permet d’identifier E à E ∗∗ .

24/90
7. Exercices

7. Exercices
Exercice 1

1. Soit E le R-espace vectoriel des fonctions dérivables de R dans R et a ∈ R.


Montrer que f −→ f 0 est une forme linéaire sur E.
2. Soit F le R-espace vectoriel des fonctions continues de [0, 1] dans R et g ∈ F .
Z 1
Montrer que f −→ f (t)g(t)dt est une forme linéaire sur F .
0
Exercice 2

Soient K un corps commutatif et E = Kn avec n ∈ N∗ . Montrer que pour toute forme linéaire ϕ de E, il
existe un unique élément a = (a1 , ..., an ) ∈ Kn tel que

∀x = (x1 , ..., xn ) ∈ E, ϕ(x) = a1 x1 + a2 x2 + ... + an xn .

Exercice 3

Soient K un corps commutatif et E = K[X]. Montrer que ! pour toute forme linéaire ϕ de E, il existe un
p
X Xp
unique élément x = (xn )n∈N ∈ KN , tel que ϕ ai X i = ai xi .
i=0 i=0
Exercice 4

Soit R2 [X] l’espace des polynômes de degré inférieur ou égal à 2. On considère l’ensemble :

F = {P ∈ E | P (1) + P 0 (0) = 0}.

1. Montrer que F est un hyperplan de E.


2. En déduire sa dimension puis en donner une base.
3. Donner toutes ses équations et tous ses supplémentaires dans E.

Exercice 5

Soit n ≥ 1 un entier et Rn [X] l’espace vectoriel des polynômes à coefficients réels de degré ≤ n.
On considère l’application :
ϕ : Rn [X] −→ R
Z 1
P 7−→ ϕ(P ) = P (t)dt.
0
1. Montrer que ϕ est une forme linéaire sur Rn [X].
2. Pour chaque i ∈ {0, 1, ..., n}, on définit l’application :

ϕi : Rn [X] −→ R

25/90
7. Exercices

 
i
P −
7 → ϕi (P ) = P .
n
Montrer que pour chaque i ∈ {0, 1, ..., n}, ϕi est une forme linéaire sur Rn [X] et que (ϕ0 , ϕ1 , ..., ϕn )
est une base de (Rn [X])∗ .
Z 1 n  
X i
3. En déduire qu’ils existent des scalaires a0 , a1 , ..., an tels que ∀P ∈ Rn [X], P (t)dt = ai P .
0 n
i=0

Exercice 6

Dans E = R3 muni de sa base canonique B0 = {e1 , e2 , e3 }, on considère les vecteurs :

u1 = (1, 0, 1), u2 = (0, 1, −1) et u3 = (1, 1, −1).

1. Montrer que la famille B = {u1 , u2 , u3 } et une base de R3 .


2. Déterminer la base duale B ∗ . En déduire la matrice de passage de B à B0 .
3. On pose F = V ect{u1 , u2 }. Montrer que F est un hyperplan de R3 , puis vérifier que x − y − z = 0
est l’une de ses équations.

Exercice 7

Soit l’espace vectoriel E = R3 [X]. On considère les formes linéaires f1 , f2 , f3 et f4 définies par :

∀P ∈ E, f1 (P ) = P (0), f2 (P ) = P (1), f3 (P ) = P 0 (0) et f4 (P ) = P 0 (1).

1. Montrer que B ∗ = (f1 , f2 , f3 , f4 ) est une base de l’espace dual E ∗ .


2. Déterminer la base B de E préduale de B ∗ .
3. Soit f la forme linéaire sur E définie par :
Z 1
∀P ∈ E, f (P ) = P (t)dt.
0

Déterminer les composantes de f dans la base B ∗ .

Exercice 8

Dans R3 , on considère les formes linéaires :

ϕ1 (x, y, z) = x + y , ϕ2 (x, y, z) = x − y , ϕ3 (x, y, z) = x + y − z.

Montrer que (ϕ1 , ϕ2 , ϕ3 ) est une base de (R3 )∗ et trouver sa base préduale.

26/90
7. Exercices

Exercice 9

Soient E = Rn [X], l’espace vectoriel des polynômes de degré ≤ n à coefficients réels, B = {e0 , ..., en } sa
base canonique et a0 , a1 , ..., an des réels deux à deux distincts.
1. Déterminer la base duale de B.
2. Soit L = {L0 , ..., Ln } la famille des polynômes définis par :
Y X − aj
Li = , (0 ≤ i ≤ n).
ai − aj
j6=i

(a) Montrer que L est une base de E et déterminer sa base duale.


(b) On suppose que a0 , ..., an ∈ [a, b](a < b). Montrer qu’ils existent α0 , ..., αn des réels uniques
tels que :
Z b n
X
∀P ∈ E, P (t)dt = αi P (ai ).
a i=0

a+b
(c) Traiter le cas où n = 2, a0 = a, a1 = et a2 = b.
2

27/90
CHAPITRE 3.

FORMES BILINÉAIRES ET FORMES QUADRATIQUES

1. Formes bilinéaires
1.1 Définition et exemple
Définition 1 (Forme bilinéaire).

Soit E un K-espace vectoriel. Une forme bilinéaire sur E est une application

f : E × E −→ K
(x, y) 7−→ f (x, y)

telle que : pour tout x ∈ E l’application y 7−→ f (x, y) est linéaire et pour tout y ∈ E l’application
x 7−→ f (x, y) est linéaire.

Remarque 1 .

v Si f : E × E −→ K est bilinéaire, alors ∀α, β ∈ R et x1 , x2 , y1 , y2 ∈ E, on a :


• f (αx1 + βx2 , y) = αf (x1 , y) + βf (x2 , y) ;
• f (x, αy1 + βy2 ) = αf (x, y1 ) + βf (x, y2 ).
v On note L2 (E) l’ensemble de toutes les formes bilinéaires sur E. Alors (L2 (E), +, .) est un espace
vectoriel sur K.

28/90
1. Formes bilinéaires

Exemple 1 .

Soit E = C([a, b], R) l’espace des fonctions continues de [a, b] dans R. Alors l’application :

f : E× −→ R
Z b
(ϕ, ψ) 7−→ f (ϕ, ψ) = ϕ(t)ψ(t)dt
a
est une forme bilinéaire sur E. En effet, en utilisant la linéarité de l’intégrale, on a pour tous α, β ∈ R et
pour toutes fonctions ϕ1 , ϕ2 , ψ1 , ψ2 , ϕ et ψ ∈ E :
Z b Z b Z b
f (αϕ1 + βϕ2 , ψ) = (αϕ1 + βϕ2 )(t)ψ(t)dt = α ϕ1 (t)ψ(t)dt + β ϕ2 (t)ψ(t)dt
a a a
= αf (ϕ1 , ψ) + βf (ϕ2 , ψ).

De même, on a :
Z b Z b Z b
f (ϕ, αψ1 + βψ2 ) = ϕ(t)(αψ1 + βψ2 )(t)dt = α ϕ(t)ψ1 (t)dt + β ϕ(t)ψ2 (t)dt
a a a
= αf (ϕ, ψ1 ) + βf (ϕ, ψ2 ).

1.2 Écriture matricielle


Soient E un K-espace vectoriel de dimension finie n, B = (e1 , e2 , ..., en ) une base de E et f : E × E −→
K une forme bilinéaire.
n
X n
X
Soient x = xi ei et y = yj ej deux vecteurs de E. Alors
i=1 j=1
 
n
X n
X n X
X n X
f (x, y) = f  xi ei , yj ej  = xi yj f (ei , ej ) = xi yj f (ei , ej ).
i=1 j=1 i=1 j=1 1≤i,j≤n

Définition 2 (Matrice d’une forme bilinéaire).

Soit f une forme bilinéaire sur E. La matrice de f relativement à la base B = (e1 , e2 , ..., en ) de E est la
matrice

MB (f ) = (aij )1≤i,j≤n où aij = f (ei , ej ), pour tout i, j = 1, ..., n.

Exemple 2 .

Soit f la forme bilinéaire définie sur E = R2 pour x = (x1 , x2 ) et y = (y1 , y2 ) par :

f : E × E −→ R
(x, y) 7−→ f (x, y) = 2x1 y1 − x1 y2 + 3x2 y1 + x2 y2

29/90
1. Formes bilinéaires

!
2 −1
La matrice de f dans la base canonique Bc = (e1 , e2 ) de R2 est : MBc (f ) = .
3 1

Théorème 1 (Écriture matricielle d’une forme bilinéaire).

Soit f une forme bilinéaire sur E et A la matrice de f dans la base B = (e1 , e2 , ..., en ) de E. Soient
Xn n
X
x= xi ei et y = yj ej deux vecteurs de E et X et Y les vecteurs colonnes formés des coordonnées
i=1 j=1
de x et y. Alors :
f (x, y) = X t AY

où X t est la transposée du vecteur colonne X.

Preuve
   
x1 y1
 . 
..  et Y =  ... .
 
On a : A = (aij )1≤i,j≤n , X =    
xn yn
     
a11 · · · a1n y1 a11 y1 + ... + a1n yn
 . ..   ..   .. 
AY =  . . = .
 . .  .  .
 
    
an1 · · · ann yn an1 y1 + ... + ann yn
Donc
n
 
X
   a1i yi 
a11 y1 + ... + a1n yn  i=1 
n X n
.. ..
  X
X t AY = (x1 , ..., xn ) 
 
.  = (x1 , ..., xn )  =

xi yj aij = f (x, y).
 n .
  

 i=1 j=1
an1 y1 + ... + ann yn
 X
 ani yi 
i=1

Exemple 3 .
!
3 1
La matrice A = est la matrice de la forme bilinéaire f définie par :
1 −2
! ! !
t 3 1 y1 3y1 + y2
f (x, y) = X AY = (x1 , x2 ) = (x1 , x2 ) = 3x1 y1 + x1 y2 + x2 y1 − 2x2 y2 .
1 −2 y2 y1 − 2y2

30/90
1. Formes bilinéaires

1.3 Forme bilinéaire symétrique - anti-symétrique


Définition 3 .

Soit f une forme bilinéaire sur E.


(i) On dit que f est symétrique si, ∀x, y ∈ E, f (x, y) = f (y, x).
(ii) On dit que f est anti-symétrique si, ∀x, y ∈ E, f (x, y) = −f (y, x).

Exemple 4 .

1) Soit E = R2 . Le produit scalaire usuel sur E défini pour X = (x1 , x2 ), Y = (y1 , y2 ) par

f : R2 × R2 −→ R
(X, Y ) 7−→ f (X, Y ) = x1 y1 + x2 y2

est une forme bilinéaire symétrique sur R2 .


2) Soit E = Mn (R). L’application

ϕ : Mn (R) × Mn (R) −→ R
(A, B) 7−→ ϕ(A, B) = T r(AB)

est une forme bilinéaire symétrique sur Mn (R).

Remarque 2 .

Remarquer que la symétrie permet de ne vérifier la linéarité que d’un seul côté.

Proposition 1 .

Soient E un K-espace vectoriel de dimension finie n, B = (e1 , e2 , ..., en ) une base de E, f ∈ L2 (E) et
A = MB (f ). Alors,
• f est symétrique si, et seulement si, A est symétrique (i.e., At = A).
• f est anti-symétrique si, et seulement si, A est anti-symétrique (i.e., At = −A).

Remarque 3 .

Soit ϕ une forme bilinéaire sur E, alors


ϕ(x, y) + ϕ( y, x)
- L’application ϕs définie par ϕs (x, y) = est une forme bilinéaire symétrique.
2
ϕ(x, y) − ϕ( y, x)
- L’application ϕa définie par ϕa (x, y) = est une forme bilinéaire anti-symétrique.
2
Et on a ϕ = ϕs + ϕa .

31/90
2. Formes quadratiques

1.4 Changement de base


Proposition 2 (Changement de base).

Soit E un K-espace vectoriel de dimension finie. Soient B1 et B2 deux bases de E et P la matrice de


passage de B1 à B2 .
Si A1 et A2 sont les matrices d’une forme bilinéaire f sur E dans les bases B1 et B2 respectivement, alors
on a :
A2 = P t A1 P

Preuve

Soient x, y dans E, on note respectivement X1 et X2 les matrices colonnes formées des coordonnées de
x dans les bases B1 et B2 et Y1 et Y2 les matrices colonnes formées des coordonnées de y respectivement
dans les bases B1 et B2 . D’après le résultat de l’action d’un changement de base sur les coordonnées d’un
vecteur, on sait que : X1 = P X2 et Y1 = P Y2 . Or,

f (x, y) = X1t A1 Y1 = (P X2 )t A1 (P Y2 ) = (X2t P t )A1 (P Y2 ) = X2 t (P t A1 P )Y2 .

D’autre part on a f (x, y) = X2t A2 Y2 . D’où A2 = P t A1 P .

Exercice 1 : !
2 1
On considère la matrice A =
1 3
1. Donner l’expression de la f.b.s ϕ associée à A.
2. Vérifier que B = {u = (2, −1), v = (1, 3)} est une base de R2 .
3. Donner la matrice de ϕ dans la nouvelle base B.

2. Formes quadratiques
Définition 4 (Forme quadratique associée à une forme bilinéaire).

Soit f une forme bilinéaire. On appelle forme quadratique sur E associée à la forme bilinéaire f , l’appli-
cation q : E → K définie par :
∀x ∈ E, q(x) = f (x, x).

Remarque 4 .

1. L’ensemble, noté Q(E), des formes quadratiques sur E est un K-espace vectoriel.

32/90
2. Formes quadratiques

2. Il n’y a pas unicité des formes bilinéaires associées à une forme quadratique. En effet, si E = R2 ,
les formes bilinéaires f et g définies par :

f (x, y) = x1 y1 + x2 y2

et
g(x, y) = x1 y1 + x2 y2 − x2 y1 + x1 y2

définissent la même forme quadratique :

q(x) = x21 + x22 = f (x, x) = g(x, x).

Théorème 2 .

Si q est une forme quadratique sur E, il existe une unique forme bilinéaire symétrique f telle que
q(x) = f (x, x) pour tout x ∈ E. On dit que f est la forme polaire de la forme quadratique q.

Preuve

Soit q une forme quadratique sur E, donc par définition il existe une forme bilinéaire g sur E telle que
∀x ∈ E, q(x) = g(x, x).
Introduisons l’application f définie sur E × E par :
1
f (x, y) = (g(x, y) + g(y, x)).
2
L’application f est bilinéaire, symétrique et vérifie f (x, x) = q(x), ∀x ∈ E.
Comme f est bilinéaire et symétrique, on a :

q(x + y) = f (x + y, x + y)
= f (x, x) + f (x, y) + f (y, x) + f (y, y)
= q(x) + 2f (x, y) + q(y), ∀x, y ∈ E.

Donc,
1
f (x, y) = [q(x + y) − q(x) − q(y)], (Égalité de polarisation).
2
D’où l’unicité de f .

Proposition 3 .

Soit q est une forme quadratique sur E, on a :


1. ∀x ∈ E, ∀λ ∈ K, q(λx) = λ2 q(x).

33/90
2. Formes quadratiques

2. ∀x, y ∈ E, q(x + y) + q(x − y) = 2[q(x) + q(y)].

Preuve

Soit f la forme polaire de q.


1. On a q(λx) = f (λx, λx) = λ2 f (x, x) = λ2 q(x).

2. On a d’après l’égalité de polarisation, ∀x, y ∈ E


1
f (x, y) = [q(x + y) − q(x) − q(y)] ,
2
donc
q(x + y) = q(x) + q(y) + 2f (x, y). (3..1)

Comme f est bilinéaire et symétrique, on a aussi :

q(x − y) = f (x − y, x − y)
= f (x, x) − f (x, y) − f (y, x) + f (y, y)
= q(x) − 2f (x, y) + q(y).

Donc
q(x − y) = q(x) + q(y) − 2f (x, y). (3..2)

Il suffit de combiner les deux relations (3..1) et (3..2) et conclure.

Définition 5 (Matrice d’une forme quadratique).

Si q est une forme quadratique sur E de forme polaire f , alors la matrice de q dans une base B de E est
la matrice de f dans cette base. i.e., MB (q) = MB (f ).

Remarque 5 .

Soient E un K-espace vectoriel de dimension finie n, B = (e1 , e2 , ..., en ) une base de E, q : E → K une
forme quadratique, f : E × E → K la forme polaire de q et A = (aij )1≤i,j≤n = MB (f ).
X n X
On a ∀x ∈ E, x = xi ei , q(x) = aij xi xj . Or f est symétrique, donc At = A et par suite
i=1 1≤i,j≤n
∀i, j, aij = aji . D’où
n
X X
q(x) = aii x2i + 2 aij xi xj .
i=1 1≤i<j≤n

34/90
3. Forme bilinéaire symétrique non dégénérée

Exemple 5 .

Déterminer la matrice et la forme polaire de la forme quadratique q définie dans la base canonique de
R3 par :
q(x) = x21 + 3x22 + 5x23 + 4x1 x2 + 6x1 x3 + 2x2 x3 .
 
1 2 3
La matrice de q dans la base canonique de R3 est : Mq = 
 
 2 3 1 .

3 1 5
La forme polaire de q est donnée par :
  
1 2 3 y1
t
  
f (x, y) = X Mq Y = (x1 , x2 , x3 )  2 3 1   y2
   

3 1 5 y3

= x1 y1 + 3x2 y2 + 5x3 y3 + 2(x1 y2 + x2 y1 ) + 3(x1 y3 + x3 y1 ) + x2 y3 + x3 y2 .

3. Forme bilinéaire symétrique non dégénérée


Définition 6 .

Soient E un K-espace vectoriel quelconque et f : E × E → K une forme bilinéaire symétrique.


On dit que f est non dégénérée si l’application

Φ : E −→ E ∗
y 7−→ Φ(y) = Φy

telle que ∀x ∈ E, Φy (x) = f (x, y) est injective.

Remarque 6 .

f est non dégénérée ⇔ [∀x ∈ E, f (x, y) = 0 ⇒ y = 0].

Proposition 4 .

Soient E un K-espace vectoriel de dimension finie, (e1 , e2 , ..., en ) une base de E, f : E × E → K une
forme bilinéaire symétrique et A = M at(f, (e1 , e2 , ..., en )). Alors

f est non dégénérée ⇔ det(A) 6= 0.

35/90
4. Orthogonalité et vecteurs isotropes

Preuve

Considérons l’application :
Φ : E −→ E ∗
y 7−→ Φ(y)
f est non dégénérée ⇔ Φ injective. Or dim(E) < ∞ et dim(E) = dim(E ∗ ).
Donc f est non dégénérée ⇔ Φ bijective.
On sait que A = M at(Φ, (e1 , e2 , ..., en ), (e∗1 , e∗2 , ..., e∗n )).
Donc

Φ bijective ⇔ A inversible ⇔ det(A) 6= 0.

Exemple 6 .

Soit q : R3 → R la forme quadratique définie par q(x, y, z) = x2 + y 2 + 2(xcos(α) + ysin(α))z.


Montrer que pour tout α ∈ R, q est non dégénérée.
La matrice de q dans la base canonique est :
 
1 0 cos(α)
 
A=
 0 1 .
sin(α) 
cos(α) sin(α) 0

q est non dégénérée ⇔ det(A) 6= 0. Or det(A) = −1 6= 0, ∀α ∈ R.


Donc, ∀α ∈ R, q est non dégénérée.

4. Orthogonalité et vecteurs isotropes


4.1 Définitions et propriétés
Définition 7 .

Soit E un K-espace vectoriel et f : E × E → K une forme bilinéaire symétrique.


1) Deux vecteurs x et y de E sont dits orthogonaux si f (x, y) = 0. On écrit x ⊥f y.
2) Si A est une partie non vide de E, l’orthogonal de A relativement à la f.b.s f , noté A⊥ , est la partie
de E définie par
A⊥ = {y ∈ E : ∀x ∈ A, f (x, y) = 0}.

36/90
4. Orthogonalité et vecteurs isotropes

Proposition 5 .

Soient E un K-espace vectoriel et f : E × E → K une forme bilinéaire symétrique. Soient A et B deux


parties de E. Alors
1. A ⊆ B =⇒ B ⊥ ⊆ A⊥ .
2. A⊥ est un sous-espace vectoriel de E.
3. A⊥ = (V ect(A))⊥ .
4. A ⊆ (A⊥ )⊥ .
5. {0E }⊥ = E.
6. E ⊥ = {0E } ⇔ f est non dégénérée.

Preuve

1. Supposons que A ⊆ B et soit x ∈ B ⊥ .


Donc, f (b, x) = 0, ∀b ∈ B.
Si a ∈ A, alors a ∈ B et donc f (a, x) = 0. Par suite x ∈ A⊥ , d’où B ⊥ ⊆ A⊥ .
2. A⊥ 6= ∅ car 0 ∈ A⊥ . En effet, ∀a ∈ A, f (a, 0) = f (a, a − a) = f (a, a) − f (a, a) = 0.
Soit x, y ∈ A⊥ et λ ∈ R, on a

f (a, λx + y) = λf (a, x) + f (a, y) = 0.

Donc λx + y ∈ A⊥ .
D’où A⊥ est un sous-espace vectoriel de E.
3. V ect(A) = sous espace vectoriel engendré par A
= le plus petit espace vectoriel contenant A
Xn
= αi ai | αi ∈ R, ai ∈ A.
i=1
On a A ⊆ V ect(A). Donc d’après 1), (V ect(A))⊥ ⊆ A⊥ .
Xn
Inversement, soit x ∈ A⊥ et soit y ∈ V ect(A) avec y = αi ai , où ai ∈ A, αi ∈ R.
i=1
On a
n
X n
X
f (y, x) = f ( αi ai , x) = αi f (ai , x) = 0, (car x ∈ A⊥ ).
i=1 i=1

Ainsi, x ∈ (V ect(A)) .
4, 5 et 6. Évidents.

37/90
4. Orthogonalité et vecteurs isotropes

Proposition 6 .

Soient E un K-espace vectoriel de dimension finie et F un sous espace vectoriel de E. Soit f : E × E → K


une forme bilinéaire symétrique. Alors
1. dim(F ) + dim(F ⊥ ) ≥ dim(E).
2. Si de plus f est non dégénérée, alors
(i) dim(F ) + dim(F ⊥ ) = dim(E).
(ii) (F ⊥ )⊥ = F .

Preuve
Φ : E −→ F ∗
1. Soit où ∀x ∈ F, Φy (x) = f (x, y).
y 7−→ Φy
On a : ker(Φ) = F ⊥ . D’autre part, on a
Im(Φ) ⊆ F ∗ ⇒ dim(Im(Φ)) ≤ dim(F ∗ ) = dim(F ).
En appliquant le théorème du rang, on déduit que

dim(E) = dim(Im(Φ)) + dim(ker(Φ))


≤ dim(F ) + dim(F ⊥ ).

2. (i) On considère la même fonction Φ définie dans la question 1.


Montrons que Im(Φ) = F ∗ .
On a déjà Im(Φ) ⊆ F ∗ . Soit ϕ ∈ F ∗ , existe-t-il y ∈ E tel que ϕ = Φy ?
On a ϕ ∈ F ∗ , d’après le théorème de prolongement des formes linéaires,

∃α ∈ E ∗ telle que ∀x ∈ F, ϕ(x) = α(x).

E −→ E ∗
Or f est non dégénérée, donc l’application telle que ∀x ∈ E, Φy (x) = f (x, y) est bijective.
y 7−→ Φy
Donc pour α ∈ E ∗ , il existe y ∈ E tel que α = Φy .
α = Φy ⇒ ∀x ∈ F, α(x) = Φy (x) = f (x, y).
Or, ∀x ∈ F, α(x) = ϕ(x). Donc, ∀x ∈ F, α(x) = f (x, y). On en déduit que ϕ = Φy .
Conclusion : ϕ est surjective. Ainsi, Im(Φ) = F ∗ .
Finalement, on conclut en utilisant le théorème du rang, puisque ker(Φ) = F ⊥ .
(ii) On a toujours F ⊆ F ⊥ . D’autre part on a :

dim(E) = dim(F ) + dim(F ⊥ ) = dim(F ⊥ ) + dim((F ⊥ )⊥ ).

Donc dim(F ) = dim((F ⊥ )⊥ ). Et puisque F ⊆ (F ⊥ )⊥ , alors F = (F ⊥ )⊥ .

38/90
4. Orthogonalité et vecteurs isotropes

Remarque 7 .

f est non dégénérée ⇒ dim(F ) + dim(F ⊥ ) = dim(E), pour tout s.e.v F de E.


Attention ! On a pas toujours E = F ⊕ F ⊥ .

Exemple 7 .

Soit f la forme bilinéaire définie sur E = R2 pour x = (x1 , x2 ) et y = (y1 , y2 ) par :

f : E × E −→ R
(x, y) 7−→ f (x, y) = x1 y1 − x2 y2
!
1 0
On a A = M at(f, (e1 , e2 )) = .
0 −1
A est symétrique, donc f est symétrique.
f et non dégénérée (car det(A) = −1 6= 0).
Soit F = {(x1 , x2 ) ∈ R2 : x1 = x2 } = V ect{(1, 1)}. On a F ⊥ = V ect{(1, 1)}⊥ = {(1, 1)}⊥ .
Donc
(x1 , x2 ) ∈ F ⊥ ⇔ f ((x1 , x2 ), (1, 1)) = 0 ⇔ x1 − x2 = 0 ⇔ x1 = x2 .

Ainsi, F ⊥ = F .
On a dim(F ) + dim(F ⊥ ) = 1 + 1 = 2 = dim(R2 ). Mais R2 6= F ⊕ F ⊥ .

Définition 8 .

Soient E un K-espace vectoriel et f : E × E → K une forme bilinéaire symétrique.


(i) Un vecteur x ∈ E est dit isotrope si f (x, x) = 0.
(ii) Un s.e.v F de E est dit isotrope si F ∩ F ⊥ 6= {0E }.
(iii) Un s.e.v F de E est dit totalement isotrope si F ⊆ F ⊥ .

Remarque 8 .

Si F est totalement isotrope, alors il est isotrope. La réciproque n’est pas toujours vraie.

Théorème 3 (Admis).

Soient E un K-espace vectoriel et f : E × E → K une forme bilinéaire symétrique.


Soit F un s.e.v de E. Alors,
E = F ⊕ F ⊥ ⇔ F est non isotrope.

39/90
5. Décomposition en carrés d’une forme quadratique

4.2 Formes quadratiques et orthogonalité


Définition 9 .

Soit q une forme quadratique définie sur un K-e.v E de dimension finie et soit ϕq sa forme polaire.
• x ⊥q y ⇔ ϕq (x, y) = 0.
• L’orthogonal d’un s.e.v F de E est F ⊥ = {x ∈ E | ∀y ∈ F, x ⊥q y}.
• Une base B = {e1 , ..., en } est dite q-orthogonale si ϕq (ei , ej ) = 0, ∀i 6= j.
• Le rang de q est rg(q) = rg(Mq ).
• Un vecteur x ∈ E est dit q-isotrope si q(x) = 0.
• Le cône isotrope de q est donné par Cq = {x ∈ E | q(x) = 0}.

Remarque 9 .

1. Une base B est q-orthogonale ⇔ la matrice MB (q) est diagonale.


2. Soit M la matrice de q (ou de ϕq ) par rapport à une base B. Trouver une base q-orthogonale B 0
c’est trouver une matrice inversible P telle que M 0 = P t M P soit diagonale.

Exercice 2 :
Soit q : R3 → R la forme quadratique définie par q(x, y, z) = x2 − y 2 .
1. Donner la forme bilinéaire symétrique associée à q ainsi que la matrice de q dans la base canonique
{e1 , e2 , e3 } de R3 .
2. Donner un vecteur u ∈ R3 q-isotrope.
3. Vérifier que e1 ⊥ e2 puis déterminer e⊥
2.

5. Décomposition en carrés d’une forme quadratique


5.1 Exemple et position du problème
Soit q : R3 → R la forme quadratique suivante :

q(x, y, z) = 4x2 + 4xy − 4xz − 2y 2 − 14yz − 19z 2 .

Cette expression n’est très agréable à manipuler. Un calcul simple montre que

q(x, y, z) = (2x + y − z)2 − 3(y + 2z)2 − 8z 2 .

40/90
5. Décomposition en carrés d’une forme quadratique

Si u un vecteur de R3 de coordonnées (x, y, z) dans une base B. Soit B 0 une nouvelle base de R3 dans
laquelle les nouvelles coordonnées (x0 , y 0 , z 0 ) de u s’expriment par :

0
 x = 2x + y − z


y 0 = y + 2z

 z0 = z

Notons par P la matrice de passage de B à B 0 . Alors la matrice de passage de B 0 à B est


 
2 1 −1
−1
 
P = 0  1 2  .
0 0 1
 1 1 3 

 2 2 2 
Par un calcul élémentaire on obtient P =   0 1 −2  .

0 0 1
1 1 3
Donc B 0 = {( , 0, 0), (− , 1, 0), ( , −2, 1)}. La forme quadratique q s’exprime dans cette nouvelle base
2 2 2
par :
q(u) = (2x + y − z)2 − 3(y + 2z)2 − 8z 2 .

On a :
   
4 2 −2 1 0 0
0
   
M = MB (q) = 
 2 −2
−7  et M = MB0 (q) =  0 −3 0 .
 
−2 −7 −19 0 0 −8

Avec
M 0 = P t M P.

Définition 10 .

Réduire une forme quadratique q sur un e.v E c’est trouver une base B 0 de E dans laquelle la forme
quadratique q s’écrit :
q(x) = α1 (x01 )2 + α2 (x02 )2 + ... + αn (x0n )2 ,

où α1 , ..., αn ∈ R et x01 , ..., x0n sont les coordonnées de x dans cette base.

41/90
5. Décomposition en carrés d’une forme quadratique

5.2 Décomposition en carrées d’une forme quadratique : méthode de


Gauss
Soit q une forme quadratique sur un K-e.v E de dimension finie n et B = {e1 , ..., en } une base de E.
Xn
Pour x = xi ei on a :
i=1
n
X X
q(x) = aii x2i + 2 aij xi xj .
i=1 1≤i<j≤n
n
X X
q(x) = ai x2i + 2 aij xi xj .
i=1 1≤i<j≤n

Théorème 4 (Théorème de réduction de Gauss).

Pour toute forme quadratique q sur E, il existe un entier p compris entre 1 et n, des scalaires α1 , ..., αp
et des formes linéaires f1 , ..., fp de E linéairement indépendantes tels que
p
X
∀x ∈ E, q(x) = αi (fi (x))2 .
i=1

Preuve

La preuve de ce théorème est basée sur un raisonnement par récurrence sur la dimension n de l’espace
vecoriel E.
- Pour n = 1, c’est évident.
- Supposons que toute forme quadratique de n − 1 variables s’écrit comme somme de carrés de p formes
linéaires f1 , ..., fp de E linéairement indépendantes (p ≤ n − 1).
Deux situations peuvent se présenter :
1er cas : q(x) contient au moins un terme carré, i.e., ∃i ∈ {1, ..., n} tel que aii = ai 6= 0.
On prend par exemple a1 6= 0. On isole tous les termes contenant x1 , on obtient
n
X Xn X
q(x) = a1 x21 + 2 a1j x1 xj + ai x2i + 2 aij xi xj
j=2 i=2 2≤i,j≤n
 
n n
X a1j X X
= a1 x21 + 2 x1 xj  + ai x2i + 2 aij xi xj
a1
j=2 i=2 2≤i,j≤n
  2 2
n n n
X a1j X a1j
X X
= a1 x1 + xj  − a1  xj  + ai x2i + 2 aij xi xj
a a
j=2 1 j=2 1 i=2 2≤i,j≤n
 2
n
X a1j
= a1 x1 + xj  + S(x2 , ..., xn ),
a1
j=2

42/90
5. Décomposition en carrés d’une forme quadratique

 2
n n
X a1j X X
avec S(x2 , ..., xn ) = −a1  xj  + ai x2i + 2 aij xi xj .
a1
j=2 i=2 2≤i,j≤n
C’est une forme quadratique en x2 , ..., xn (n − 1 variable).
D’après l’hypothèse de récurrence, on peut écrire

S(x) = α2 (f2 (x2 , ..., xn ))2 + ... + αp (fp (x2 , ..., xn ))2 ,

où f2 , ..., fp sont des formes linéaires de E linéairement indépendantes.


Ce qui montre que q est une somme de p + 1 formes linéaires, i.e.,

q(x) = α1 (f1 (x2 , ..., xn ))2 + α2 (f2 (x2 , ..., xn ))2 + ... + αp (fp (x2 , ..., xn ))2 .

2ème cas : q(x) ne contient aucun terme carré, i.e., ∀i, aii = ai = 0.
X
Dans ce cas, on a q(x) = 2 aij xi xj .
1≤i,j≤n
On choisit deux variables, par exemple x1 , x2 et on isole tous les termes contenant x1 et x2 , on obtient
 
X n Xn X
q(x) = 2 a12 x1 x2 + a1j xj x1 + a2j xj x2 + aij xi xj 
j=2 j=3 3≤i<j≤n
= 2a12 (x1 x2 + Bx1 + Cx2 ) + D,

où B, C et D ne contiennent que les n − 2 variables x3 , ..., xn .


En écrivant x1 x2 + Bx1 + Cx2 = (x1 + C)(x2 + B) − BC, on obtient

q(x) = 2a12 (x1 + C)(x2 + B) − 2a12 BC + D.


1 1
Ensuite, en utlisant l’identité de Babilone suivante : ab = (a + b)2 − (a − b)2 , on conclut que
4 4
a12 a12
q(x) = (x1 + x2 + B + C)2 − (x1 − x2 + C − B)2 −2a12 BC + D .
2 2 | {z }
S

On achève la démonstration en appliquant l’hypothèse de récurrence à S.

Corollaire 1 .

Soit q une forme quadratique sur E. Il existe une famille libre {f1 , ..., fp }, p ≤ n de formes linéaires sur
E telle que :

q = a1 f12 + a2 f22 + ... + ap fp2 et p = rg(MB (q)).

43/90
5. Décomposition en carrés d’une forme quadratique

Preuve

Le théorème de réduction de Gauss assure l’existence d’une famille libre {f1 , ..., fp } dans E ∗ telle que

q = a1 f12 + ... + ap fp2 , a1 , ..., ap ∈ K.

On complète la famille {f1 , ..., fp } en une base B ∗ = {f1 , ..., fp , fp+1 , ..., fn } de E ∗ .
Soit B = {e1 , ..., ep , ep+1 , ..., en } la base préduale de B ∗ et soit ϕ la forme polaire associée à q.
p
(
X ai , ∀i ≤ p
On a : ϕ(ei , ei ) = q(ei ) = aj fj2 (ei ) = .
j=1 0, ∀i > p
Et ∀i 6= j,
1
ϕ(ei , ej ) = (q(ei + ej ) − q(ei ) − q(ej ))
2
p p p
!
1 X X X
= ak fk2 (ei + ej ) − ak fk2 (ei ) − ak fk2 (ej )
2
k=1 k=1 k=1
p
!
1 X
= 2 ak fk (ei )fk (ej )
2
k=1
= 0.

Donc la base B = {e1 , ..., ep , ep+1 , ..., en } est une base orthogonale et la matrice de q dans cette base est :
 
a1 0 ... ... 0
 . . . . . . .. 

 0 . . . . 

 .. .. 
MB (q) = 
 . . ap 0 0  .
 .. .. .. . 

 . . . 0 .. 
0 ... 0 0 0

Par suite rg(q) = rg(MB (q)) = p.

Exemple 8 .

1) Soit q : R3 → R la forme quadratique définie par :

q(x, y, z) = 4x2 + 4xy − 4xz − 2y 2 − 14yz − 19z 2 .

44/90
5. Décomposition en carrés d’une forme quadratique

La réduction de la forme quadratique q :

q(x, y, z) = 4x2 + 4xy − 4xz − 2y 2 − 14yz − 19z 2


= (2x)2 + 2 × 2x(y − z) + (y − z)2 − (y − z)2 − 2y 2 − 14yz − 19z 2
= (2x + y − z)2 − y 2 − z 2 + 2yz − 2y 2 − 14yz − 19z 2
= (2x + y − z)2 − 3(y 2 + 4yz + 4z 2 − 4z 2 ) − 20z 2
= (2x + y − z)2 − 3(y + 2z)2 − 8z 2
= x02 − 3y 02 − 8z 02 .

0
 x = 2x + y − z = f1 (x, y, z)


On obtient une décomposition en carrés telle que : (S) y 0 = y + 2z = f2 (x, y, z)

 z 0 = z = f (x, y, z).

 3 


 4 2 −2
  
(x, y, z) dans la base B0 où MB0 (q) =  2 −2 −7

 

  


 −2 −7 −19
u ∈ R3 est de coordonnées  


 1 0 0
0 0 0
  
(x , y , z ) dans la base B où M (q) =  0 −3 0 

B



  

 0 0 −8
   
x x0
0
   
On pose : X =   0 
 y  et X =  y .

z z0
 
2 1 −1
0  X ; X 0 = P −1 X où P = PB B .
 
On a alors X =   0 1 2  0

0 0 1
On a :
 1 0 1 0 0 1 0  1 0 1 0 0 3 0
 x = x − y + z + z  x = 2x − 2y + z + 2z

2 2 2

 
(S) ⇔ 0 0 ⇔ 0 0
 y = y − 2z
  y = y − 2z

z = z0 z = z0
 
   1 1 3  0 
x − x
   2 2 2  
⇔  y = 0 0 .
1 −2   y
    

z 0 0 1 z0
 1 1 3   1 1 3 
− −
 2 2 2  0  2 2 2 
Donc X =   X . Par suite P = PB B = .
 0 1 −2  0  0 1 −2 
0 0 1 0 0 1

45/90
5. Décomposition en carrés d’une forme quadratique

D’où
1


 u1 = ( , 0, 0)

 2
1

u2 = (− , 1, 0)
 2
 u3 = ( 3 , −2, 1).



2
Et la forme quadratique q dans la nouvelle base B = {u1 , u2 , u3 } s’exprime :

q(u) = x02 − 3y 02 − 8z 02 .
 
1 0 0
 
Et sa matrice dans cette base est : MB (q) = 
 0 −3 0 . (rg(q) = 3).

0 0 −8
4
2) Soit q : R → R la forme quadratique :

q(x, y, z, t) = xy + yz + zt + tx.

On a :

q(x, y, z, t) = xy + yz + zt + tx
= xy + yz + tx + zt
= (x + z)(y + t) − zt + zt
1 1
= (x + z + y + t)2 − (x + z − y − t)2 .
4 4




 x0 = x + y + z + t

 y0 = x + z − y − t

Pour obtenir une base q-orthogonale, on pose :


 z0 = z

 t0 = t

Donc

1 1
 
 x + y = x0 − z 0 − t 0

 x = x0 + y 0 − z 0

 
 2 2
1 0 1 0
 
 x − y = y 0 − z 0 + t0
y = x − y − t0
 

⇔ 2 2


 z = z0 

 z=z 0
 
 t = t0
 
 t = t0

    
x 1/2 1/2 −1 0 x0
    
 y   1/2 −1/2 0 −1   y 0 
⇔  = .
    
 0
 z   0 0 1 0 
 z
 
   
t 0 0 0 1 t0

46/90
6. Signature d’une forme quadratique réelle

0 0 0 0
Soit B = {u1 , u2 , u3 , u
4 } la nouvelle base danslaquelle les coordonnées de u sont (x , y , z , t ).
1/2 1/2 −1 0
 
 1/2 −1/2 0 −1 
On a P = PB0 B =  . Donc
 
 0 0 1 0 
 
0 0 0 1

1 1


 u1 = ( , , 0, 0)

 2 2
1 1


u2 = ( , − , 0, 0)

2 2
 u3 = (−1, 0, 1, 0)





 u
4 = (0, −1, 0, 1)

1 1
Et la forme quadratique q dans cette base s’exprime : q(u) = x02 − y 02 .
4 4
1

0 0 0
 4 
 0 −1 0 0 
 
Et sa matrice dans cette base est : MB (q) = 
 4 . (rg(q) = 2).

 0 0 0 0 
 
0 0 0 0

6. Signature d’une forme quadratique réelle


Théorème 5 (Loi d’inertie de Sylvestre).

Soient E un R-e.v de dimension finie n ≥ 2 et q une forme quadratique sur E.


Soient :
{e1 , ..., en } une base q-orthogonale.
p = nombre des indices i tel que q(ei ) > 0.
s = nombre des indices i tel que q(ei ) < 0.
Alors le couple (p, s) est indépendant de la base q-orthogonale choisie. (i.e., pour toute base B orthogonale
pour q, la matrice diagonale MB (q) a aussi p éléments diagonaux positifs et s éléments diagonaux négatifs).
le couple (p, s) est appelé la signature de q, on la note sg(q).

Exemple 9 .

Considérons les deux exemples précédents, on a :

47/90
7. Espaces euclidiens

1)

q(x, y, z) = 4x2 + 4xy − 4xz − 2y 2 − 14yz − 19z 2


= (2x + y − z)2 − 3(y + 2z)2 − 8z 2 .

Donc sg(q) = (1, 2).


2)

q(x, y, z, t) = xy + yz + zt + tx
1 1
= (x + z + y + t)2 − (x + z − y − t)2 .
4 4
Donc sg(q) = (1, 1).

Définition 11 .

Soit q une forme quadratique sur E.


1. q est dite non dégénérée si ker(q) = ker(ϕq ) = {0}.
2. q est dite définie si ∀x ∈ E, x 6= 0 ⇒ q(x) 6= 0.
3. q est dite définie positive si ∀x ∈ E \ {0}, q(x) > 0.
4. q est dite positive si ∀x ∈ E, q(x) ≥ 0.

Proposition 7 .

Soit q une forme quadratique réelle de signature sg(q) = (p, s).


1. sg(q) = (p, 0) ⇒ q est définie positive.
2. sg(q) = (0, s) ⇒ q est définie négative.
3. sg(q) = (p, s) et p 6= 0 et s 6= 0 ⇒ q n’est définie positive ni négative.
4. sg(q) = (p, s) et n = p + s ⇒ q est non dégénérée.

7. Espaces euclidiens
7.1 Produit scalaire
Définition 12 .

Soient E un K-espace vectoriel quelconque et f : E × E → K une forme bilinéaire symétrique.


1. f est dite positive si : ∀x ∈ E, f (x, x) ≥ 0.

48/90
7. Espaces euclidiens

(
∀x ∈ E, f (x, x) ≥ 0
2. f est dite définie positive si :
f (x, x) = 0 ⇔ x = 0.

Remarque 10 .

f est définie positive si et seulement si ∀x ∈ E, x 6= 0 ⇒ f (x, x) > 0.

Définition 13 .

Soit E un K-espace vectoriel quelconque.


1. On appelle produit scalaire sur E, toute forme bilinéaire symétrique f définie positive.
2. Tout R-espace vectoriel muni d’un produit scalaire f s’appelle un espace euclidien. On le note
(E, f ).

Remarque 11 .

Tout produit scalaire est non dégénérée.

Preuve

Soit f un produit scalaire sur E.


Soit y ∈ E tel que ∀x ∈ E, f (x, y) = 0. A-t-on y = 0 ?
∀x ∈ E, f (x, y) = 0, en particulier pour x = y, on a f (y, y) = 0. Ce qui implique que y = 0.

Notation : Un produit scalaire f sera souvent noté h., .if ou tout simplement h., .i s’il n’y a pas de
risque de confusion, i.e., hx, yi = f (x, y), ∀x, y ∈ E. On lit ”x scalaire y”.

Exemple 10 .

1) Soit E = C([a, b], R) le R-e.v des fonctions continues f : [a, b] −→ R.


Z b
Pour f, g ∈ E, on pose hf, gi = f (t)g(t)dt. Alors, h., .i définit un produit scalaire sur E.
a
n
X
2) Soit E = Rn . Pour x, y ∈ E, on pose hx, yi = xi yi .
i=1
Alors, h., .i définit un(produit scalaire sur Rn , )
c’est le produit scalaire usuel de Rn .
X∞
3) Soit E = l2 (R) = (xn )n≥0 : |xn |2 < ∞ .
i=0

X
Pour x, y ∈ l2 (R) avec x = (xn )n≥0 et y = (yn )n≥0 , on pose hx, yi = x n yn .
n=0
1
|xn |2 + |yn |2 .

On a |xn yn | ≤
2

49/90
7. Espaces euclidiens

∞ ∞ ∞ ∞
!
X X X X
2 2
|xn | < ∞ et |yn | < ∞ ⇒ |xn yn | < ∞ ⇒ xn yn < ∞ .
n=0 n=0 i=0 n=0
Donc, h., .i définit un produit scalaire sur l2 (R).
Ainsi, (l2 (R), h., .i) est un espace euclidien.

7.2 Inégalité de Cauchy-Schwarz


Théorème 6 (Inégalité de Cauchy-Schwarz).

Soit f : E × E → R une forme bilinéaire symétrique positive sur un R-e.v E. Alors, ∀x, y ∈ E
p p
|f (x, y)| ≤ f (x, x). f (y, y)

Preuve

Fixons x ∈ E et y ∈ E. On a f est positive, donc : ∀λ ∈ R, f (λx + y, λx + y) ≥ 0.


Donc ∀λ ∈ R, f (x, x)λ2 + 2f (x, y)λ + f (y, y) ≥ 0.
On sait que (aλ2 + bλ + c ≥ 0, ∀λ ∈ R avec a ≥ 0) ⇒ ∆ = b2 − 4ac ≤ 0.
Donc on aura : ∆0 = f (x, y)2 − f (x, x).f (y, y) ≤ 0.
⇒ f (x, y)2 ≤ f (x, x).f (y, y).
p p
⇒ |f (x, y)| ≤ f (x, x). f (y, y).

Définition 14 (Norme).

Soient E un K-e.v. et N : E −→ R+ , x 7−→ N (x) une application.


On dit que N définit une norme sur E si les trois conditions suivantes sont vérifiées :
(i) Séparation : N (x) = 0 ⇔ x = 0.
(ii) Homogénéité : ∀λ ∈ K, ∀x ∈ E, N (λx) = |λ|N (x).
(iii) Inégalité triangulaire : ∀x, y ∈ E, N (x + y) ≤ N (x) + N (y).
Dans ce cas, le couple (E, N ) est appelé un espace normé.

Proposition 8 .

Soit (E, h., .i) un espace euclidien. L’application :

k.k : E −→ R+
p
x 7−→ kxk = hx, xi

définit une norme sur E.

50/90
7. Espaces euclidiens

Preuve

On a :
(i) kxk = 0 ⇔ hx, xi = 0 ⇔ x = 0 car f est définie.
p p p
(ii) kλxk = hλx, λxi = λ2 hx, xi = |λ| hx, xi = |λ|kxk.
(iii)

kx + yk2 = hx + y, x + yi
= hx, xi + hy, yi + 2hx, yi
≤ kxk2 + kyk2 + 2kxk.kyk, par Cauchy-Schwarz
≤ (kxk + kyk)2 .

D’où kx + yk ≤ kxk + kyk.

Remarque 12 .

Dans un espace euclidien E quelconque, l’inégalité de Cauchy-Schwarz s’écrit :

∀x, y ∈ E, |hx, yi| ≤ kxk.kyk.

Exemple 11 .

1) E = C([a, b], R).


Z b Z b  21 Z b  12
2 2
f (t)g(t)dt ≤ f (t) dt g(t) dt .
a a a

2) E = l2 (R).
∞ ∞
!1 ∞
!1
X X 2 X 2
2 2
|xn yn | ≤ |xn | . |yn | .
n=0 n=0 n=0
n
3) E = R .
n n
!1 n
!1
X X 2 X 2
2 2
xi yi ≤ |xi | . |yi | .
i=1 i=1 i=1

Remarque 13 .

L’inégalité de Cauchy-Schwarz est un cas particulier (pour p = q = 2) de l’inégalité de Hölder suivante :

n n
!1 n
!1
p q
X X X 1 1
x i yi ≤ |xi |p . |yi |q , avec + = 1.
p q
i=1 i=1 i=1

51/90
8. Exercices

8. Exercices
Exercice 1

1. Soit E un K-espace vectoriel, θ1 , θ2 ∈ E ∗ .


Montrer que l’application ϕ définie par ϕ(x, y) = θ1 (x).θ2 (y) est une forme bilinéaire sur E.
2. Soit E un K-espace vectoriel de dimension finie n et soient ϕ ∈ L2 (E) et f, g ∈ L(E).
Montrer que l’application ψ définie par : ψ(x, y) = ϕ(f (x), g(y)), ∀(x, y) ∈ E × E,
est une forme bilinéaire sur E.
Exercice 2

On se place dans l’espace E = R3 rapporté à sa base canonique B0 = {e1 , e2 , e3 }. On note x = (x1 , x2 , x3 )


et y = (y1 , y2 , y3 ) et soit f la forme bilinéaire symétrique définie sur E par :

f (x, y) = x1 y1 + 6x2 y2 + 56x3 y3 − 2(x1 y2 + x2 y1 ) + 7(x1 y3 + x3 y1 ) − 18(x2 y3 + x3 y2 ).

1. Écrire la matrice de f par rapport à la base canonique.


2. Écrire la matrice de f par rapport à la base B00 = {e01 , e02 , e03 } où :

e01 = e1 , e02 = 2e1 + e2 et e03 = −3e1 + 2e2 + e3 .

3. Donner l’expression de la forme quadratique q associée à f par rapport à chacune des bases B0 et
B00 .
Exercice 3

Soit E = R2 [X] l’espace des polynômes de degré inférieur ou égale à 2 à coefficients réels et B = {P1 =
1, P2 = X, P3 = X 2 } sa base canonique.
Z 1
On considère l’application ϕ : E × E → R telle que ϕ(P, Q) = P (t).Q(1 − t)dt.
0
1. Montrer que ϕ est une forme bilinéaire symétrique.
2. Soit F = {P ∈ E : P (0) = 0} et G = V ect(P1 ).
(a) Montrer que F est un hyperplan de E et déterminer une base de F .
(b) Vérifier que F ⊕ G = E.
(c) Déterminer G⊥ l’orthogonal de G par rapport à ϕ.
Exercice 4

Soient E = Rn [X] (n ∈ N∗ ). Pour tous P, Q ∈ E, on pose :


Z 1
f (P, Q) = tP (t)Q0 (t)dt et q(P ) = f (P, P ).
0

1. Montrer que f ∈ L2 (E). Est-elle symétrique ? antisymétrique ?

52/90
8. Exercices

2. Déterminer la forme polaire de q. La forme quadratique q est-elle définie ? sinon, exhiber un vecteur
isotrope non nul.
3. Calculer la matrice de f dans la base canonique B = {1, X, ..., X n } de E.
4. On suppose que n = 2.
Soit P ∈ R2 [X]. Exprimer q(P ) en fonction des coordonnées de P dans la base canonique de R2 [X].
Exercice 5

Soit q : R4 → R une forme quadratique telle que :

q(x, y, z, t) = 4x2 − 4y 2 − 16xz + 16yz + zt.

1. Déterminer sa forme polaire ϕ et la matrice de ϕ relativement à la base canonique.


2. Déterminer la décomposition de Gauss de la forme quadratique q.
3. En déduire sa signature et son rang.
4. Trouver une base qui soit q-orthogonale.
Exercice 6

Déterminer la signature des formes quadratiques suivantes :


1) q(x, y, z) = x2 + 2y 2 + 2xy − 2xz − yz.
2) q(x, y, z) = xy + yz + xz.
3) q(x, y, z, t) = x2 + 3y 2 + 4z 2 + t2 + 2xy + xt.
Exercice 7

Soit q la forme quadratique sur l’espace vectoriel réel E = R4 définie en posant pour chaque élément x de
E de coordonnées (x1 , x2 , x3 , x4 ) sur la base canonique :

q(x) = x21 − 3x22 − 4x23 + λx24 + 2µx1 x2 ,

où λ, µ ∈ R.
1. Écrire la forme polaire de q et la matrice de q par rapport à la base canonique.
2. Calculer le rang de q en discutant suivant les valeurs de λ et µ.
3. Dans chaque cas trouvé, décomposer q en somme de carrés linéairement indépendantes.
Exercice 8

Soient E = M2 (R) le R-espace vectoriel des matrices carrées d’ordre 2 à coefficients réels et q : E → R
l’application définie par :
∀A ∈ E, q(A) = det(A)

53/90
8. Exercices

1) Démontrer que q est une forme quadratique puis déterminer sa matrice dans la base canonique de
E, son rang, sa signature et les éléments isotropes.
2) Soit F la partie de E formée des matrices de trace nulle. Vérifier que F est un sous-espace vectoriel
de E et déterminer l’orthogonal de F .
Exercice 9

1) Soit f la forme bilinéaire symétrique définie sur R3 par :

f ((x1 , x2 , x3 ), (y1 , y2 , y3 )) = (x1 + x2 + x3 )(y1 + y2 + y3 ) + (x2 + x3 )(y2 + y3 ) + x3 y3 .

Montrer que f est un produit scalaire sur R3 .


2) Soient a ∈ R et fa la forme bilinéaire symétrique définie sur R2 par :

fa ((x1 , x2 ), (y1 , y2 )) = x1 y1 + x2 y2 + a(x1 y2 + x2 y1 ).

Déterminer les valeurs de a pour lesquelles fa définit un produit scalaire.


Exercice 10

Soit E = C([−1, 1], R) l’espace des fonctions continues sur [−1, 1] à valeurs dans R.
1. Montrer que l’application :
ϕ : E × E −→ R
Z 1
(f, g) 7−→ ϕ(f ) = f (t)g(t)dt
−1
définit un produit scalaire sur E.
2. Soient : I = {f ∈ E : f est impaire} et P = {f ∈ E : f est paire}.
Montrer que P ∈ I ⊥ .
Exercice 11

Soit (E, h, i) un espace euclidien et soient x1 , ..., xn des vecteurs de E non nuls et orthogonaux deux à
deux.
Montrer que la famille {x1 , ..., xn } est libre.
Exercice 12

Soit (E, h, i) un espace euclidien et soient F et G deux s.e.v. de E.


1. Montrer que F ⊂ G ⇒ F ⊥ ⊂ G⊥ .
2. Montrer que (F + G)⊥ = F ⊥ ∩ G⊥
3. En déduire de (2.) que (F ∩ G)⊥ = F ⊥ + G⊥ .

54/90
8. Exercices

Exercice 13

Soit (E, h, i) un espace euclidien et soient f et g deux applications définies sur E telles que :

hf (x), yi = hx, g(y)i, ∀x, y ∈ E.

Montrer que f est linéaire.


Exercice 14

Soient Bc = {e1 , e2 , e3 } la base canonique de R3 et q la forme quadratique définie sur R3 par :

q((x1 , x2 , x3 )) = (x1 + x2 )2 + (x2 − x3 )2 + (x1 − x3 )2 .

1. Montrer que q définit un produit scalaire sur R3 et déterminer sa matrice par rapport à Bc .
2. Soit F le plan d’équation x1 + x2 + x3 = 0 dans la base Bc .
Déterminer F ⊥ .
Exercice 15 (Facultatif, extrait d’examen 2021-2022)

Soit q : R4 → R une forme quadratique telle que :

q(x, y, z, t) = 4x2 − 4y 2 − 16xz + 16yz − 2zt.

1. En utilisant la méthode de Gauss écrire la forme quadratique q en somme de carrés.


2. Donner la signature de q. La forme quadratique q est elle non dégénérée ?
3. Soit ϕ la forme polaire associée à q. ϕ définit-elle un produit scalaire sur R4 ? (Justifier).
4. Trouver une base B = {u1 , u2 , u3 , u4 } de R4 qui soit q-orthogonale.
Exercice 16 (Facultatif, extrait d’examen 2020-2021)

Dans E = R3 muni de sa base canonique B0 = {e1 , e2 , e3 }, on considère l’application b : E 2 → R définie


par :
b((x1 , x2 , x3 ), (y1 , y2 , y3 )) = 2x1 y1 + x2 y2 − x3 y3 .

1. Justifier que b est une forme bilinéaire sur E.


2. Déterminer la matrice B représentant b dans B0 .
3. b est-elle symétrique ? antisymétrique ?
Déterminer la partie symétrique b1 et la partie antisymétrique b2 de b.
4. Déterminer le rang de b.

55/90
CHAPITRE 4.

RÉDUCTION DES ENDOMORPHISMES

Dans tout ce chapitre, K désigne le corps R ou C.

1. Diagonalisation
1.1 Rappel sur la diagonalisation
Soit E un K-e.v de dimension finie n, f ∈ L(E), B une base de E et A = MB (f ) = (aij ) ∈ Mn (K).
IdE (resp. In ) désignera l’application identité de E (resp. la matrice identité de taille n).
• Le polynôme (en X) P = Pf (X) = PA (X) = det(A − XIn ) est appelé polynôme caractéristique
de A (ou de f ). Notons que deg(P ) = n.
• Les valeurs propres de la matrice A (resp. l’endomorphisme f ) sont les racines de PA (X) (resp.
Pf (X)).
• L’ensemble des valeurs propres de A (resp. de f ) est noté par Sp(A) (resp. Sp(f )).

λ ∈ Sp(A) ⇔ PA (λ) = 0.

• On appelle vecteur propre de f associé à une valeur propre λ tout vecteur non nul de

Eλ := Ker(f − λIdE ) = {x ∈ E : f (x) = λx}.

• ∀λ ∈ Sp(f ), Eλ est appelé le sous-espace propre de f associé à λ.

56/90
1. Diagonalisation

Exemple 1 .
!
a b
1) Pour toute matrice A = ∈ M2 (K), on a
c d

PA (X) = X 2 − T r(A)X + det(A) = X 2 − (a + d)X + ad − bc.


!
0 1
Pour A = , on a PA (X) = X 2 + 1. Donc SpR (A) = ∅, alors que SpC (A) = {−i, i}.
−1 0

2) Soit E = C ∞ (R) l’espace des fonctions indéfiniment dérivables sur R.


On considère l’application dérivée suivante :

D : E −→ E

f 7−→ f 0 .

Pour tout λ ∈ R, on considère la fonction

gλ : R −→ R

x 7−→ eλx .

On a : D(gλ ) = λgλ . Donc λ est une valeur propre de D et la fonction gλ est un vecteur propre associé.

Exercice 1 :
Soit f : R2 −→ R2 l’endomorphisme de R2 défini par f (x, y) = (−y, x).
Montrer que f n’admet pas de valeur propre.

Remarque 1 .

1. Puisque, par définition un vecteur propre est non nul, alors dim(Eλ ) ≥ 1, ∀λ ∈ Sp(f ).
2. On a
1 ≤ dim(Eλ ) ≤ mλ , ∀λ ∈ Sp(f ).

3. Si λ ∈ Sp(A), le sous espace propre associé à λ est l’ensemble :

Eλ := Ker(A − λIn ) = {x ∈ E : AX = λX},

où X est le vecteur colonne de x.

57/90
1. Diagonalisation

Proposition 1 .

Soit f ∈ L(E),

λ valeur propre de f ⇔ f − λIdE n’est pas injective (i.e., Eλ 6= {0}).

Preuve

λ valeur propre de f ⇔ ∃x ∈ E \ {0}, f (x) = λx


⇔ ∃x ∈ E \ {0}, (f − λIdE )(x) = 0
⇔ Ker(f − λIdE ) 6= {0}
⇔ f − λIdE n’est pas injective.

Définition 1 .

Un polynôme P est dit scindé dans K s’il se décompose en produit de polynômes de degré 1 de K[X],
i.e.,
P (X) = (X − λ1 )m1 ...(X − λk )mk ,

i.e., toutes les racines de P sont dans K. On dit que λi est une racine d’ordre de multiplicité mi .

Exemple 2 .

- Le polynôme P (X) = (X − 3)2 (X + 1) est scindé dans R[X].


- Le polynôme P (X) = X 2 + 1 n’est pas scindé dans R[X] mais il est scindé dans C[X] (Sp(f ) = {i, −i}).

Théorème 1 (Condition nécéssaire et suffisante de diagonalisation).

L’endomorphisme f (ou la matrice A) est diagonalisable ssi les deux conditions suivantes sont vérifiées :
1. Le polynôme caractéristique Pf est scindé dans K[X] ;
2. pour chaque racine λi de Pf d’ordre de multiplicité mi , on a dim(Eλi ) = mi .

Corollaire 1 (Condition suffisante de diagonalisation).

Si Pf est scindé dans K et a toutes ses racines simples, alors f est diagonalisable. En effet, dans ce cas
dim(Eλi ) = 1 pour tout i = 1, ..., k.

58/90
1. Diagonalisation

Exemple 3 .

Soit  
−1 7 5 0
 
 0 2 4 1 
A= .
 
 0
 0 0 −1 

0 0 0 3
On a Sp(A) = {−1, 2, 0, 3} et PA (X) = X(X + 1)(X − 2)(X − 3).
Donc A admet 4 valeurs propres distinctes. Par suite A est diagonalisable.

Théorème 2 .

1. ∀λ, µ ∈ Sp(f ) telles que λ 6= µ, on a Ker(f − λIn ) ∩ Ker(f − µIn ) = {0}, i.e., Eλ ∩ Eµ = {0}.
2. On suppose que Sp(f ) = {λ1 , ..., λk }, et que

E = Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλk .

Alors f est diagonalisable.

1.2 Exemple de diagonalisation


Dans E = R3 muni de sa base canonique  Bc = {e1 ,
e2 , e3 }, on considère l’endomorphisme f ∈ L(E)
1 2 −3
 
dont la matrice dans la base Bc est : A =  1 4 −5 

.
0 2 −2
- On calcule PA (X) = det(A − XI3 ), on a :

1−X 2 −3 1−X 0 −1 + X
PA (X) = 1 4−X −5 = 1 4−X −5 L1 ← L1 − L3
0 2 −2 − X 0 2 −2 − X
1−X 0 0
= 1 4−X −4 C3 ← C1 + C3
0 2 −2 − X
4−X −4
= (1 − X)
2 −2 − X
= (1 − X) [(4 − X)(−2 − X) + 8]
= (1 − X)(X 2 − 2X)
= −X(X − 1)(X − 2).

59/90
1. Diagonalisation

Donc A admet trois valeurs propres simples λ1 = 0, λ2 = 1 et λ3 = 2. Ainsi A est diagonalisable.


- La deuxième étape est de déterminer les vecteurs/sous-espaces propres :
- Déterminons Eλ1 :
    
1 2 −3 x 0
    
u = (x, y, z) ∈ E0 ⇔ AU = 0 ⇔ 
 1 4 −5  y  =  0 
   
0 2 −2 z 0

 x + 2y − 3z = 0


⇔ x + 4y − 5z = 0


 2y − 2z = 0
(
x=z

y=z
⇔ x = y = z.

D’où u = x(1, 1, 1) ⇒ E0 = V ect{v1 } avec v1 = (1, 1, 1).


- Déterminons Eλ2 :

u = (x, y, z) ∈ E1 ⇔ AU = U ⇔ (A − I3 )U = 0
    
0 2 −3 x 0
    
⇔ 
 1 3 −5   y  =  0
   

0 2 −3 z 0

 2y − 3z = 0


⇔ x + 3y − 5z = 0


 2y − 3z = 0
(
x = 1/2z

y = 3/2z.

Ce qui conduit à E1 = V ect{v2 } avec v2 = (1, 3, 2).

60/90
1. Diagonalisation

- Déterminons Eλ3 :

u = (x, y, z) ∈ E2 ⇔ AU = 2U ⇔ (A − 2I3 )U = 0
    
−1 2 −3 x 0
    
⇔  1 2 −5   y
   = 0 
  
0 2 −4 z 0

 −x + 2y − 3z = 0


⇔ x + 2y − 5z = 0


 2y − 4z = 0
(
x=z

y = 2z.

D’où E2 = V ect{v3 } avec v3 = (1, 2, 1).


- Soit B = (v1 , v2 , v3 ), on a detBc (B) 6= 0, donc B est libre et fournit par conséquent une base de R3 .
- Maintenant, on a f (v1 ) = 0, f (v2 ) = v2 et f (v3 ) = 2v3 et on écrit alors la matrice D de f dans la
nouvelle base B (formée par les vecteurs propres) :
 
0 0 0
D = P −1 AP = 
 
 0 1 0 ,

0 0 2
 
1 1 1
 
où P = PB0 B = 
 1 3 2 .

1 2 1

Exercice 2 :  
−1 1 1
 
Soit la matrice : B = 
 1 −1 1 .
1 1 −1

Montrer que B est diagonalisable et la diagonaliser.

1.3 Applications de la diagonalisation


1.3.1 Calcul des puissances matricielles
Soit M une matrice carrée. Pour tout k ∈ N∗ , M k désigne le produit de M par elle même k fois. Si de
plus M est inversible alors pour tout k ∈ N∗ , M −k = (M −1 )k .
Soit A une matrice carrée diagonalisable et soit D la matrice diagonale associée à A i.e., D = P −1 AP où
P est la matrice de passage de la base canonique à une base de vecteurs propres. Alors An = P Dn P −1
pour tout n ≥ 0. Si A est inversible alors Ap = P Dp P −1 pour tout p < 0.

61/90
1. Diagonalisation

 
1 0 2
 
Application : Soit la matrice : A = 
 0 1 0 .

2 0 1
1. Montrer que A est inversible et déterminer son inverse en utilisant les cofacteurs de A.
2. En utilisant la diagonalisation :
(a) calculer An , n ∈ Z∗ ;
(b) retrouver l’inverse de A.
Solution :
1. det(A) = −3 6= 0, donc A est inversible. En utilisant les cofacteurs de A on obtient :
 
1 0 −2
−1 
A−1 =

 0 −3 0  .
3  
−2 0 1

2. - On calcule PA (X) = det(A − XI3 ), on a :

1−X 0 2
PA (X) = 0 1−X 0 = (1 − X)[(1 − X)2 − 4]
2 0 1−X
= −(X + 1)(X − 1)(X − 3).

Donc A admet trois valeurs propres distinctes λ1 = −1, λ2 = 1 et λ3 = 3. Ainsi A est diagonalisable.
- La deuxième étape est de déterminer les vecteurs/sous-espaces propres :
- Déterminons Eλ1 :

u = (x, y, z) ∈ E−1 ⇔ AU = −U ⇔ ⇔ (A + I3 )U = 0
    
2 0 2 x 0
    
⇔  0 2 0  y
   = 0 
  
2 0 2 z 0
(
2x + 2z = 0

2y = 0
(
x = −z

y=0

D’où u = x(−1, 0, 1) ⇒ E−1 = V ect{v1 } avec v1 = (−1, 0, 1).

62/90
1. Diagonalisation

- Déterminons Eλ2 :

u = (x, y, z) ∈ E1 ⇔ AU = U ⇔ (A − I3 )U = 0
    
0 0 2 x 0
    
⇔  0 0 0  y  =  0
     

2 0 0 z 0
(
x=z=0

y∈R

Ce qui conduit à E1 = V ect{v2 } avec v2 = (0, 1, 0).


- Déterminons Eλ3 :

u = (x, y, z) ∈ E3 ⇔ AU = 3U ⇔ (A − 3I3 )U = 0
    
−2 0 2 x 0
    
⇔  0 −2 0   y  =  0
     

2 0 −2 z 0

 −2x + 2z = 0


⇔ −2y = 0


 2x − 2z = 0
(
x=z

y = 0.

D’où E3 = V ect{v3 } avec v3 = (1, 0, 1).


- Soit B = (v1 , v2 , v3 ), on a detBc (B) 6= 0, donc B est libre et fournit par conséquent une base de R3 .
- Maintenant, on a f (v1 ) = −v1 , f (v2 ) = v2 et f (v3 ) = 3v3 et on écrit alors la matrice D de f dans la
nouvelle base B (formée par les vecteurs propres) :
 
−1 0 0
D = P −1 AP = 
 
 0 ,
1 0 
0 0 3

où
   
−1 0 1 −1 0 1
  −1 1 
P = PB0 B = 
 0  et P = 2  0
1 0  
.
2 0 
1 0 1 1 0 1

63/90
1. Diagonalisation

(a) Soit n ∈ Z∗ .

n −1
An = P D
P   
−1 0 1 (−1)n 0 0 −1 0 1
1   
=  0 1 0  0 1 0   0 2 0 
2      
n
1 0 1 0 0 3 1 0 1
 
(−1)n + 3n 0 (−1)n+1 + 3n
1 
=  0 2 0 .
2  
n+1 n n n
(−1) + 3 0 (−1) + 3

(b) D’après la question précédente on obtient :


   
(−1) + 3−1 0 1 + 3−1 1 0 −2
1  −1 
A−1 = 
 
=
.
0 2 0  0 −3 0 
2  3 
1 + 3−1 0 −1 + 3−1 −2 0 1

1.3.2 Systèmes différentiels linéaires de premier ordre


Soit le système différentiel linéaire suivant :

 ẋ1 (t) = x1 (t) + 2x2 (t) − 3x3 (t)


(SD) ẋ2 (t) = x1 (t) + 4x2 (t) − 5x3 (t)


 ẋ (t) = 2x (t) − 2x (t).
3 2 3
   
x1 (t) ẋ1 (t)
   
On pose X(t) =  x2 (t)
 , on a alors Ẋ(t) =  ẋ2 (t) . On voit ainsi que le système (SD) peut s’écrire
  
x3 (t) ẋ3 (t)
sous la forme matricielle suivante :
 
1 2 −3
 
Ẋ(t) = AX(t) avec A =   1 4 −5 .

0 2 −2

On a déjà diagonalisé A et trouvé


   
0 0 0 1 1 1
D = P −1 AP où D = 
   
 0 1 0  et P =  1 3 2  .
  
0 0 2 1 2 1

64/90
1. Diagonalisation

Donc

(SD) ⇔ Ẋ(t) = P DP −1 X(t)


⇔ P −1 Ẋ(t) = DP −1 X(t)
 
y1 (t)
⇔ Ẏ (t) = DY (t), où Y (t) = P −1 X(t) = 
 
 y2 (t) 

y3 (t)

 ẏ1 = 0


⇔ ẏ2 = y2


 ẏ = 2y
3 3

 y1 (t) = c1


⇔ y2 (t) = c2 et

 y (t) = c e2t , (c , c , c ) ∈ R3 .

3 3 1 2 3

Par suite

X(t) = P Y (t)
  
1 1 1 y1 (t)
  
= 
 1 3 2   y2 (t)
 .

1 2 1 y3 (t)

En effectuant ce produit matriciel, on obtient



 x1 (t) = y1 (t) + y2 (t) + y3 (t)


x2 (t) = y1 (t) + 3y2 (t) + 2y3 (t)


 x (t) = y (t) + 2y (t) + y (t).
3 1 2 3

Ce qui conduit à 
t 2t
 x1 (t) = c1 + c2 e + c3 e


x2 (t) = c1 + 3c2 et + 2c3 e2t

 x (t) = c + 2c et + c e2t , (c , c , c ) ∈ R3 .

3 1 2 3 1 2 3

65/90
1. Diagonalisation

1.3.3 Calcul du terme général pour les suites récurrentes


Exemple : On considère les suites (un ) et (vn ) définies par :

 un+1 = 3un + 4vn


(S) vn+1 = 4un − 3vn


 u = 3, v = 4.
0 0
!
un
On pose Un = , et on écrit le système (S) sous la forme matricielle suivante :
vn
!
3 4
Un+1 = AUn , où A = .
4 −3
On détermine le polynôme caractéristique de A :

3−X 4
PA (X) = = X 2 − 25 = (X + 5)(X − 5).
4 −3 − X
PA admet deux v.p distinctes λ1 = −5 et λ2 = 5, donc A est diagonalisable. Notons f l’endomorphisme
canoniquement à A et Bc = {e1 , e2 } la base canonique de R2 .
• Sous-espaces propres : Eλ1 = V ect{b1 = (1, −2)} et Eλ2 = V ect{b2 = (2, 1)}.
6 0, donc B = {b1 , b2 } est une base de R2 .
On a detBc {b1 , b2 } =
• D’après la formule de changement de base, on a
!
−5 0
D = MB (f ) = = P −1 AP,
0 5
! !
1 2 1 1 −2
où P = PBc B = et P −1 = .
−2 1 5 2 1
• Un+1 = AUn implique que
Un+1 = P DP −1 Un .
!
−1 ûn
On effectue le changement de variable suivant : Wn = P Un = .
v̂n
On déduit que ! !
û0 −1 −1
Wn+1 = DWn avec W0 = =P U0 = .
v̂0 2
(
n ûn = (−5)n û0 = (−1)n+1 5n
• Clairement, on a Wn = D W0 . Par suite :
v̂n = 5n v̂0 = 2.5n .
• Retour à Un via la matrice P : on a Un = P Wn . On obtient ainsi,
(
un = ûn + 2v̂n = 5n 4 + (−1)n+1


vn = −2ûn + v̂n = 2.5n (1 + (−1)n ) .

66/90
2. Polynômes d’endomorphismes

2. Polynômes d’endomorphismes
Dans la suite, E désigne un K-e.v, u ∈ L(E) un endomorphisme non nul de E, A ∈ Mn (K) et IdE
(resp. In ) désignera l’application identité de E (resp. la matrice identité de taille n).
Notations :
- On rappelle que la loi composée dans L(E) est notée ◦. Pour deux endomorphisme u et v de E, parfois
on écrit uv pour signifier u ◦ v.
- Le produit matriciel de deux matrices A et B est noté A.B ou tout simplement AB.
- Pour tout n ∈ N, on convient de noter :
( (
IdE si n = 0 In si n = 0
un = n−1
; An = n−1
u◦u si n 6= 0 A.A si n 6= 0
- Soit P (X) = a0 + a1 X + ... + am X m un polynôme dans K[X].
• On désigne par P (u) l’endomorphisme :
m
X
P (u) = a0 IdE + a1 u + ... + am um = ak uk , appelé polynôme en u.
k=0
• On désigne par P (A) la matrice :
m
X
m
P (A) = a0 In + a1 A + ... + am A = ak Ak , appelé polynôme en A.
k=0
L’ensemble des polynômes en u (resp. en A) sera noté comme suit :

K[u] := {P (u) | P ∈ K[X]}.

K[A] := {P (A) | P ∈ K[X]}.

Notons que K[u] ⊂ L(E) et K[A] ⊂ Mn (K).

Exemple 4 .

1. Si P = 1, alors P (u) = IdE (resp. P (A) = In ).


2. Si P = c ∈ K (constante), alors P (u) = cIdE (resp. P (A) = cIn ).
3. Si P = X, alors P (u) = u (resp. P (A) = A).
4. Pour P = X 3 − X 2 + X − 2, P (u) = u3 − u2 + u − 2IdE (resp. P (A) = A3 − A2 + A − 2In ).

Remarque 2 .

1) Pour tout u ∈ LK (E), l’application :

Ψu : K[X] −→ LK (E)

P 7−→ P (u),

67/90
2. Polynômes d’endomorphismes

est un morphisme d’algèbre, i.e., une application linéaire et ∀P, Q ∈ K[X], on a (P Q)(u) = P (u)Q(u).

2) De même pour l’application :


ΨA : K[X] −→ Mn (K)

P 7−→ P (A).

Théorème 3 (Théorème de Cayley Hamilton).

Si E est un K-e.v de dimension finie, alors le polynôme caractéristique de u (resp. de A) est un polynôme
annulateur de u (resp. de A), i.e.,

Pu (u) = 0 (resp. PA (A) = 0).

Proposition 2 .

Soit A ∈ Mn (K). Si A est inversible, alors A−1 est une combinaison linéaire de In , A, ..., An−1 . i.e.,
∃α0 , ..., αn−1 ∈ K tels que

A−1 = α0 In + α1 A + ... + αn−1 An−1 .

Preuve

Soit PA (X) = (−1)n X n + ... + a1 X + a0 le polynôme caractéristique de A.


Comme A est inversible, alors a0 = det(A) 6= 0. D’autre part, d’après le théorème de Cayley Hamilton,
on a PA (A) = 0, donc (−1)n An + ... + a1 A + a0 In = 0
=⇒ A (−1)n An−1 + an−1 An−2 + ... + a1 In = −a0 In .

−1
D’où A−1 = (a1 In + ... + an−1 An−2 + (−1)n An−1 ).
a0

Exemple 5 .
 
−3 1 −1
 
On considère la matrice A = 
 −7 5 −1 .

−6 6 −2
Déterminons A−1 par application du théorème de Cayley Hamilton.
On a PA (X) = −X 3 + 12X + 16. (à vérifier)
D’après le théorème de Cayley Hamilton, on a PA (A) = 0, i.e., −A3 + 12A + 16I3 = 0.
=⇒ A −A2 + 12I3 = −16I3 .

−1
Donc A est inversible et A−1 = (−A2 + 12I3 ).
16

68/90
2. Polynômes d’endomorphismes

2.1 Polynôme annulateur et polynôme minimal


Définition 2 .

Soit P un polynôme non nul de K[X]. On dit que P est un polynôme annulateur de u (resp. de A) si
P (u) = 0 (resp. P (A) = 0).

Exemple 6 .

1. Si u = IdE , alors X − 1 est un polynôme annulateur de u.


2. Si u est un projecteur (i.e., u2 = u), alors X 2 − X est un polynôme annulateur de u.
3. Si u est une involution linéaire (i.e., u2 = IdE ), alors X 2 − 1 est un polynôme annulateur de u.
4. Si A est une matrice nilpotente d’indice de nilpotence p ∈ N∗ , alors X n est un polynôme annulateur
de A, ∀n ≥ p.

Proposition 3 .

Si P est un polynôme non constant et annulateur de u (resp. de A), alors les valeurs propres de u (resp.
de A) sont les racines de P , i.e.,

Sp(u) ⊂ P −1 ({0}) (resp. Sp(A) ⊂ P −1 ({0})).

Preuve

λ ∈ Sp(u) ⇒ ∃x ∈ E non nul tel que u(x) = λx. Donc ∀k ≥ 0, uk (x) = λk x.


Et plus généralement, pour tout polynôme Q ∈ K[X], avec Q(X) = a0 + a1 X + ... + an X n , on a

Q(u) = a0 IdE + a1 u + ... + an un ∈ L(E).

Donc

Q(u)(x) = a0 x + a1 u(x) + ... + an un (x)


= a0 x + a1 λx + ... + an λn x
= (a0 + a1 λ + ... + an λn )x
= Q(λ)x.

En particulier, P (u)(x) = 0 ⇒ P (λ)x = 0 ⇒ P (λ) = 0.

69/90
2. Polynômes d’endomorphismes

Définition 3 .

Soit u un endomorphisme de E (dim(E) = n).


Il existe un polynôme unitaire unique, noté mu , vérifiant les deux assertions suivantes :
1. mu est un polynôme annulateur de u ;
2. pour tout polynôme P ∈ K[X], P (u) = 0 ⇒ mu divise P .
Le polynôme mu est appelé le polynôme minimal de u.
De la même manière on définit le polynôme minimal d’une matrice A, noté mA .

Exemple 7 .

1. Si u est un endomorphisme nilpotent d’indice de nilpotence p ∈ N∗ (i.e., up = 0 et up−1 6= 0), alors


mu = X p .
!
0 1
2. Soit A = . Remarquons que A2 = −I2 , donc X 2 + 1 annule A, par suite mA divise
−1 0
X 2 + 1. Or, mA est le plus petit (au sens de la divisibilité dans R[X]) polynôme unitaire qui annule
A. Il en résulte que mA = X 2 + 1 (car X 2 + 1 est irréductible dans R[X]).

Proposition 4 .

Soit u un endomorphisme de E (dim(E) = n).


Les valeurs propres de u sont exactement les racines de mu , i.e.,

Sp(u) = m−1
u ({0}).

Preuve

Puisque mu est annulateur de u, alors d’après la proposition précédente, les valeurs propres de u sont des
racines de mu .
Inversement, comme mu divise le polynôme caractéristique Pu , alors les racines de mu sont aussi des
racines de Pu qui sont les valeurs propres de u.

Théorème 4 (Théorème de décomposition des noyaux).

Si P et Q sont deux polynômes premiers entre eux dans K[X], alors :

Ker((P Q)(u)) = Ker(P (u)) ⊕ Ker(Q(u)).

70/90
2. Polynômes d’endomorphismes

Remarque 3 .

Si P et Q sont deux polynômes premiers entre eux dans K[X] tels que P Q est un polynôme annulateur
de u, alors :
Ker((P Q)(u)) = E,

et par conséquent Ker(P (u)) et Ker(Q(u)) sont supplémentaires dans E, i.e.,

E = Ker(P (u)) ⊕ Ker(Q(u)).

Exemple 8 .

1. Si u est un projecteur de E, alors Ker(u) et Ker(IdE − u) sont supplémentaires dans E. En effet,


on a u2 = u, donc X 2 − X = X(X − 1) est un polynôme annulateur de u, et X ∧ (X − 1) = 1, alors
d’après le Théorème précédent (et la remarque précédente), il vient que

E = Ker(u) ⊕ Ker(IdE − u).

2. Si u est une involution linéaire, alors :

E = Ker(IdE − u) ⊕ Ker(IdE + u).

2.2 Retour à la diagonalisation via le polynôme minimal


Proposition 5 .

Soit u un endomorphisme de E (dim(E) = n).


On suppose que le polynôme caractéristique Pu est scindé dans K, i.e.,

Pu (X) = (−1)p (X − λ1 )m1 ...(X − λp )mp ,

où m1 , ...mp ≥ 1 et λ1 , ..., λp ∈ K sont deux à deux distincts.


Alors le polynôme minimal de u est :

mu (X) = (X − λ1 )α1 ...(X − λp )αp ,

où 1 ≤ αi ≤ mi pour tout i = 1, ..., p.

71/90
3. Trigonalisation

Proposition 6 .

Soit f un endomorphisme de E (dim(E) = n).


f est diagonalisable si, et seulement si, mf est scindé à racines simples.

Exemple 9 .

Dans un K-e.v de dimension finie, les endomorphismes suivants sont diagonalisables (en vertu de la
proposition précédente) :
1. les projecteurs ;
2. les involutions linéaires.

Exemple 10 .
 
1 0 0
Soit f ∈ L(R3 ) défini par la matrice suivante : A = 
 
 1 2 0 .

1 0 2
Le polynôme caractéristique de A est PA (X) = −(X − 2)2 (X − 1).
Le polynôme minimal est donc :

mA (X) = (X − 2)(X − 1) ou mA (X) = (X − 2)2 (X − 1).

Or on a,
    
−1 0 0 0 0 0 0 0 0
    
(A − 2I2 )(A − I2 ) = 
 1 0 0 

 1 1 0  =  0 0 0 .
  
1 0 0 1 0 1 0 0 0

Donc mA (X) = (X − 2)(X − 1).


Puisque mA n’a que des racines simples, alors A est diagonalisable.

3. Trigonalisation
Soient E un K-e.v de dimension finie n ∈ N∗ , f un endomorphisme de E, i.e., f ∈ L(E) et A ∈ Mn (K).
On rappelle que la matrice A = (aij )1≤i,j≤n est dite triangulaire supérieure si aij = 0, ∀i > j, i.e., les
éléments situés en dessous de la diagonale principale sont tous nuls.

Définition 4 .

• L’endomorphisme f est dit trigonalisable s’il existe une base de E par rapport à laquelle la
matrice de f est triangulaire supérieure.

72/90
3. Trigonalisation

• La matrice A est dite trigonalisable si elle est semblable à une matrice triangulaire supérieure, i.e.,
s’il existe une matrice inversible P telle que P −1 AP est triangulaire supérieure.

Remarque 4 .

1. Si M est la matrice de f dans une base donnée de E, alors f est trigonalisable ssi M est trigonalisable.
2. Toute matrice (resp. endomorphisme) diagonalisable est trigonalisable.
3. Si N est une matrice semblable à A, alors N est trigonalisable ssi A est trigonalisable.
4. Les valeurs propres d’une matrice triangulaire sont les éléments de la diagonale.
5. Si T = (tij ) ∈ Mn (K) est une matrice triangulaire, alors
n
Y
PT (X) = det(T − XIn ) = (tkk − X).
k=1

Par conséquent, si A est trigonalisable alors PA est scindé dans K. Le théorème suivant montre que
cette condition est également suffisante pour que A soit trigonalisable.

Théorème 5 (Critère de trigonalisation).

Un endomorphisme f (resp. une matrice A) est trigonalisable sur E (resp. dans Mn (K)) ssi Pf (X) (resp.
PA (X)) est scindé dans K.

À titre de conséquence directe du Théorème de D’Alembert Gauss et le Théorème ci-dessus, on obtient

Corollaire 2 .

1. Si E est un C-e.v, tout endomorphisme de E est trigonalisable.


2. Toute matrice de Mn (C) est trigonalisable dans Mn (C).

- Exemples de trigonalisation de matrices carrées de M3 (K) :


Soit A ∈ M3 (K) tel que PA (X) est scindé dans K, alors A est trigonalisable, i.e., ∃P ∈ GL3 (K) et
T ∈ M3 (K) triangulaire supérieure telles que T = P −1 AP .
Nous allons, sur des exemples, montrer comment trouver un tel couple (P, T ).
Supposons A non diagonalisable, alors :
• ou bien A admet une valeur propre simple λ1 et une valeur propre double λ2 avec dim(Eλ2 ) < 2 ;
• ou bien A admet une valeur propre triple λ avec A 6= λI.

73/90
3. Trigonalisation

Exemple 11 .
 
0 −1 0
On considère l’endomorphisme f de L(R3 ) défini par la matrice A = 
 
 1 2 .
−4 
1 1 −3
On a :

−X −1 0
2−X −4 1 −4
PA (X) = 1 2−X −4 = −X +
1 −3 − X 1 −3 − X
1 1 −3 − X
= −X [−(2 − X)(3 + X) + 4] − (3 + X) + 4
= −X X 2 + X − 2 + 1 − X
 

= −X(X − 1)(X + 2) + 1 − X
= (1 − X)(X 2 + 2X + 1)
= (X + 1)2 (1 − X).

Donc A admet deux valeurs propres λ1 = 1 (simple) et λ2 = −1 (double).


- Déterminons Eλ2 :

u = (x, y, z) ∈ E−1 ⇔ AU = −U ⇔ (A + I3 )U = 0
    
1 −1 0 x 0
    
⇔  1 3 −4   y  =  0
     

1 1 −2 z 0

 x−y =0


⇔ x + 3y − 4z = 0


 x + y − 2z = 0

 x=y


⇔ y=z


 z = x.

D’où u = x(1, 1, 1) ⇒ E−1 = V ect{v2 = (1, 1, 1)}. On a donc dim(E−1 ) = 1 6= m−1 . Ainsi A n’est pas
diagonalisable. Mais PA est scindé, ce qui implique que A est trigonalisable.

74/90
3. Trigonalisation

- Déterminons Eλ1 :

u = (x, y, z) ∈ E1 ⇔ AU = U ⇔ (A − I3 )U = 0
    
−1 −1 0 x 0
    
⇔ 
 1 1 −4  y  =  0 
   
1 1 −4 z 0

 −x − y = 0


⇔ x + y − 4z = 0


 x + y − 4z = 0
(
x = −y

z = 0.
D’où u = y(−1, 1, 0) ⇒ E1 = V ect{v1 = (−1, 1, 0)}.
On complète la famille {v1 , v2 } en une base B = {v1 , v2 , v3 } de R3 , par un vecteur v3 = (x, y, z), de telle
façon que MB (f ) soit triangulaire supérieure :
 
1 0 0
 
T = MB (f ) = 
 0 −1 .
. 
0 0 −1
(
B une base de R3
Ceci revient à : .
f (v3 ) + v3 ∈ V ect{v2 }
     
−y x x−y
     
On a : f (v3 ) + v3 = Av3 + v3 =   x + 2y − 4z  +  y  =  x + 3y − 4z 
    
x + y − 3z z x + y − 2z

 x−y =α

 (
x=α+z
D’où : f (v3 ) + v3 ∈ V ect{v2 } ⇔ x + 3y − 4z = α , α ∈ R ⇔


 x + y − 2z = α y = z.

On peut chosir, par exemple y = z = 0 et α = 1, on a donc v3 = (1, 0, 0) et f (v3 ) = v2 − v3 .


La matrice de passage de la base canonique Bc = {e1 , e2 , e3 } à la base B = {v1 , v2 , v3 } est :
 
−1 1 1
 
P =  1 1 0 .

0 1 0
Et on a :  
1 0 0
T = P −1 AP = 
 
 0 −1 1  .

0 0 −1

75/90
3. Trigonalisation

Exercice 3 :  
−2 2 −1
On considère l’endomorphisme f de L(R3 ) défini par la matrice A = 
 
 −1 1 −1  .

−1 2 −2
1. Vérifier que PA (X) = −(X + 1)3 .
2. En déduire que f n’est pas diagonalisable.
3. Montrer que f est trigonalisable et le trigonaliser.
Solution :

1. On calcule PA (X) = det(A − XI3 ), on a :

−2 − X 2 −1 −1 − X 2 −1
PA (X) = −1 1−X −1 = −1 − X 1 − X −1 C1 ← C1 + C2 + C3
−1 2 −2 − X −1 − X 2 −2 − X
1 2 −1
= (−1 − X) 1 1 − X −1
1 2 −2 − X
1 2 −1
= (−1 − X) 0 −1 − X 0 Li ← Li − L1 , i = 2, 3
0 0 −1 − X
−1 − X 0
= (−1 − X)
0 −1 − X
= (−1 − X)(−1 − X)(−1 − X)
= −(1 + X)3 .

2. Si A est diagonalisable, puisqu’elle admet une seule valeur propre qui est −1, elle serait semblable à
−I3 , et donc égale à −I3 . Ce qui est absurde, car A 6= −I3 . Par suite, A n’est pas diagonalisable et donc
f n’est pas diagonalisable.

3. Le polynôme caractéristique de A est scindé sur R, donc f est trigonalisable.

76/90
3. Trigonalisation

- Déterminons E−1 :

u = (x, y, z) ∈ E−1 ⇔ AU = −U ⇔ (A + I3 )U = 0
    
−1 2 −1 x 0
    
⇔  −1 2 −1   y  =  0
     

−1 2 −1 z 0
⇔ −x + 2y − z = 0
⇔ z = −x + 2y

D’où u = (x, y, −x + 2y) = x(1, 0, −1) + y(0, 1, 2).


⇒ E−1 = V ect{v1 , v2 } où v1 = (1, 0, −1) et v2 = (0, 1, 2).
On complète la famille {v1 , v2 } en une base B = {v1 , v2 , v3 } de R3 , par un vecteur v3 = (x, y, z), de telle
façon que MB (f ) soit triangulaire supérieure :
 
−1 α β
 
T = MB (f ) = 
 0 −1 γ .
0 0 −1

3
 B une base de R


Ceci revient à : f (v2 ) + v2 ∈ V ect{v1 }


 f (v ) + v ∈ V ect{v , v }.
3 3 1 2
        
−2 2 −1 0 0 0 0
        
On a : f (v2 ) + v2 = Av2 + v2 =   −1 1 −1 
 +
1  
=
1  
 +  1  = 0v1 .
−1   
−1 2 −2 2 2 −2 2
D’où : α = 0.       
−2 2 −1 x x −x + 2y − z
      
On a : f (v3 ) + v3 = Av3 + v3 =   −1 1 −1  

+
y  
=
y   −x + 2y − z 

−1 2 −2 z z −x + 2y − z

 −x + 2y − z =β

 (
β=γ
D’où : f (v3 ) + v3 ∈ V ect{v1 , v2 } ⇔ −x + 2y − z = γ ; β, γ ∈ R ⇒


 −x + 2y − z x, y, z ∈ R.
= −β + 2γ

Ainsi, tout vecteur v3 tel que (v1 , v2 , v3 ) soit libre convient. On peut chosir, par exemple x = 1, y = z = 0,
donc β = γ = −1. On a donc v3 = (1, 0, 0) et f (v3 ) = −v1 − v2 − v3 .
La matrice de passage de la base canonique Bc = {e1 , e2 , e3 } à la base B = {v1 , v2 , v3 } est :
 
1 0 1
 
P =  0 1 0 .

−1 2 0

77/90
3. Trigonalisation

Et on a :  
−1 0 −1
T = P −1 AP = 
 
 0 .
−1 −1 
0 0 −1

78/90
4. Exercices

4. Exercices

Exercice 1

Soient n ∈ N ∗ et A ∈ Mn (R) tels que (A − 3In )3 = 0 et A 6= 3In . (In est la matrice identité d’ordre n).
1. Vérifier que 3 est une valeur propre de A.
2. Montrer que 3 est la seule valeur propre de A.
3. A est-elle diagonalisable ? Justifier.
Exercice 2
 
0 1 1
 
Soit la matrice : A = 
 1 0 1 .

1 1 0
1. Diagonaliser la matrice A (on justifiera qu’elle est bien diagonalisable, on calculera une matrice de
passage ainsi que l’inverse de cette dernière).
2. Application : trouver au moins une matrice X ∈ M3 (C) (à coefficients eventuellement complexes)
qui vérifie l’équation matricielle X 2 = A.
Exercice 3
Vrai-Faux
Soit K = R ou C.
a) ∀n ∈ N∗ , ∀A ∈ Mn (K), Sp(A) 6= ∅.
b) Le Théorème de Calyey Hamilton est valable pour les endomorphismes d’un K-e.v de dimension
infinie.
c) Deux matrices carrées de même taille et semblables ont le même polynôme caractéristique.
d) Deux matrices carrées de même taille qui ont le même polynôme caractéristique sont semblables.

Exercice 4
!
2 −1
Soit A = .
−2 3
1. Déterminer PA (X).
2. Par application du Théorème de Cayley Hamilton, calculer f (A) où f est le polynôme défini par :

f (X) = X 4 − 5X 3 + 7X 2 − 2X + 5.

Exercice 5
!
1 1
Soit A = .
1 1
1. Montrer que A est diagonalisable.

79/90
4. Exercices

2. Déterminer mA le polynôme minimal de A.


3. Calculer les puissances successives de A.
Exercice 6 (extrait du rattrapage 2022-2023)

 
3 2 −2
 
On considère la matrice : A = 
 −1 0 .
1 
1 1 0
1. On pose N = A − I3 . Vérifier que N est nilpotente.
2. Déterminer le polynôme minimal de A.
3. A est-elle diagonalisable ? trigonalisable ? Justifier.
Exercice 7
Vrai-Faux
Soit K = R ou C.
a) Le polynôme minimal et le polynôme caractéristique d’un endomorphisme ont les mêmes racines.
b) Un endomorphisme d’un K-e.v E est trigonalisable ssi son polynôme minimal est scindé sur K.
c) Si A est une matrice trigonalisable, alors il existe une unique matrice triangulaire supérieure sem-
blable à A.

Exercice 8
 
2 0 1
Soit f l’endomorphisme de R3 dont la matrice dans la base canonique Bc est A = 
 
 1 .
1 0 
−1 1 3
1. Déterminer le polynôme caractéristique de A.
2. A est-elle diagonalisable ? vérifier que A est trigonalisable.
3. Vérifier que v1 = (1, 1, 0) est un vecteur propre associé à une valeur propre de A.
(v1 , v2 , v3 ) soit une base de R3 et par rapport à laquelle
tels que B = 
4. Chercher deux vecteurs v2 et v3 
2 α β
 
la matrice de f est de la forme  0 2 γ 

 , (on déterminera les valeurs de α, β et γ).
0 0 2
5. En utilisant la forme triangulaire de la matrice A, résoudre le système suivant :
   
5 x
   
AX =  2 , X =  y .
  
1 z

80/90
4. Exercices

Exercice 9 (Problème)

On note C(R) l’espace vectoriel des fonctions continues de R dans R et E = C ∞ (R) l’ensemble des
fonctions indéfiniment dérivables sur R. On se propose de résoudre l’équation différentielle linéaire d’ordre
deux suivante :
ÿ − 2ẏ − y = 0. (4..1)

La résolution de l’équation (1) se fait en analyse à l’aide des racines de l’équation caractéristique associée :
r2 − 2r − 1 = 0. En particulier, si r1 et r2 sont réelles, les solution de (1) sont de la forme λer1 t + µer2 t , où
λ, µ ∈ R. Ici, le but est d’utiliser la diagonalisation des matrices carrées d’ordre 2 pour ce type d’équations
différentielles. Soit Φ l’application définie par :

Φ : E −→ C(R)

y 7−→ Φ(y) = ÿ − 2ẏ − y.

1. Montrer que E est un R-e.v.


2. Quelle est la dimension de E ?
3. Vérifier que E est stable par Φ.
4. En déduire que Φ induit un endomorphisme sur E que l’on note encore Φ.
5. Montrer que l’ensemble des solutions de (1) est un s.e.v de E.
!

6. Soit y ∈ E une solution de (1). On pose Y = .
y
Exprimer Ẏ en fonction de Y à l’aide d’une matrice carrée A d’ordre 2 que l’on déterminera.
7. Montrer que A est diagonalisable et la diagonaliser.
8. En déduire les solutions de l’équation différentielle (1).

81/90
CHAPITRE 5.
EXPONENTIELLE D’UNE MATRICE

1. Définitions et premières propositions


Rappel :
X n
X
Soit (un )n≥0 une suite. La série de terme général un qu’on note un est la suite (Sn )n où Sn = uk .
n k=0

S0 = u0 ; S1 = u0 + u1 ; S2 = u0 + u1 + u2 ; ... ; Sn = u0 + u1 + ... + un .
X
- La série un converge ⇔ la suite (Sn )n converge.
n

Exemple 1 .
X an +∞ n
X a
∀a ∈ R, la série est convergente et on a = ea .
n
n! n!
n=0

X X
- La série un converge absolument si kun k converge.
n n

Remarque 1 .

Toute série absolument convergente est convergente.

Soit A = (aij )1≤i,j≤n ∈ Mn (K) une matrice et (Ak )k≥0 une suite de matrices, (Ak ) = (akij )i,j . La suite
(Ak )k≥0 converge vers A si ∀k, akij −→ aij et on note lim Ak = A.
k→+∞

On munit Mn (K) d’une norme d’algèbre quelconque k.k (i.e., une norme multiplicative, kABk ≤

82/90
1. Définitions et premières propositions

kAk.kBk, ∀A, B ∈ Mn (K)), par exemple la norme suivante :


n
X
kAk = sup |aij |, où A = (aij )1≤i,j≤n .
i=1,...,n j=1

On a : ∀i, j, |aij | ≤ kAk et lim Ak = A ⇔ lim kAk − Ak = 0.


k→+∞ k→+∞
(Mn (K), k.k) est un e.v.n de dimension finie.

Définition 1 (Exponentielle d’une matrice).

n
X Ak
Soit A ∈ Mn (K), la série est convergente et sa limite est noté exp(A) ou eA appelée l’expo-
k!
k=0
+∞
X Ak
nentielle de A. On a exp(A) = .
k!
k=0

A2 An
eA = exp(A) = In + A + + ... + + ...
2! n!

Preuve

On a ∀N ∈ N :
N N
X kAn k X kAkn
≤ −→ ekAk .
n! n! N →+∞
n=0 n=0
X An
On en déduit que la série converge absolument, donc elle est convergente. De plus, on a k exp(A)k ≤
n
n!
exp(kAk).

Proposition 1 .

Soit A ∈ Mn (C), alors ∃P ∈ C[X] tel que exp(A) = P (A).

Preuve

Soit A ∈ Mn (C). On a C[A] := {P (A) | P ∈ C[X]} est un sous-espace vectoriel de Mn (C) qui est de
dimension finie, donc C[A] est fermé. Et puisque,
N
X An
∀N ∈ N, SN = ∈ C[A]
n!
n=0

et
+∞ n
X A
SN −→ S = = exp(A),
n!
n=0

83/90
1. Définitions et premières propositions

alors exp(A) ∈ C[A], i.e.,


∃P ∈ C[X] tel que exp(A) = P (A).

Rappel :
X X n
X
Le produit de Cauchy de deux séries an et bn est la série de terme général cn = ak bn−k (i.e., la
X X n X n k=0
série cn ). Si les deux séries an et bn converges, alors leur produit de Cauchy converge et on a :
n n n

∞ ∞
! ∞

X X X
cn = ai  bj  .
n=0 i=0 j=0

Proposition 2 .

Si A et B sont deux matrices qui commutent (i.e., AB = BA), alors eA+B = eA .eB .

Preuve

La démonstration est basée sur le produit de Cauchy. On va montrer que eA+B est le produit de Cauchy
de eA et eB .
Soit n ∈ N, comme les deux matrices commutent, alors
n
1 1 X k k n−k
(A + B)n = Cn A B
n! n!
k=0
n
X 1 n!
= Ak B n−k
n! (n − k)!k!
k=0
n  
X 1 k 1
= A B n−k
k! (n − k)!
k=0
n
X
= ak bn−k (produit de Cauchy).
k=0

X 1 X 1 X 1
Comme An et B n cv, alors (A + B)n aussi cv et on a :
n
n! n
n! n
n!
! !
X 1 X 1 X 1
(A + B)n = An Bn .
n
n! n
n! n
n!

=⇒ eA+B = eA .eB .

Voici quelques propriétés de base de l’exponentielle d’une matrice.

84/90
1. Définitions et premières propositions

Proposition 3 .

(a) Pour toute matrice A ∈ Mn (C), on a exp(At ) = (exp(A))t .


(b) Pour toute matrice A ∈ Mn (C), la matrice eA est inversible et on a (eA )−1 = e−A .
(c) Si Q ∈ GLn (C) et A ∈ Mn (C) alors exp(Q−1 AQ) = Q−1 exp(A)Q.
(d) det(exp(A)) = exp(T r(A)).
(e) Sp(exp(A)) = exp(Sp(A)).

Preuve

(a) Soit A ∈ Mn (C), on sait que ∃P ∈ C[X] tel que exp(A) = P (A). Alors (a) découle du fait que

P (At ) = (P (A))t , ∀P ∈ C[X].

(b) En effet, eA .e−A = eA−A = e0 = In .


(c) Découle de la continuité du morphisme A 7−→ Q−1 AQ.
n
X Ak
Notons, pour tout n ∈ N, Pn (A) = . Par définition, on a exp(A) = lim Pn (A). Alors
k! n→+∞
k=0

exp(Q−1 AQ) = lim Pn (Q−1 AQ)


n→+∞
= lim Q−1 Pn (A)Q
n→+∞
= Q−1 ( lim Pn (A))Q
n→+∞
−1
= Q exp(A)Q.

(d) On trigonalise la matrice A, ∃T ∈ Mn (C) triangulaire supérieure et P ∈ GLn (C) telles que A =
P T P −1 , et on a
T r(A) = T r(P T P −1 ) = T r(T P −1 P ) = T r(T ).

En utilisant (c), on a exp(A) = exp(T ). Donc det(exp(A)) = det(exp(T )). Or exp(T ) est une matrice
triangulaire supérieure et det(exp(T )) = exp(T r(T )). D’où le résultat.

Exemple 2 .

Si Sp(A) = {0, 1, 2}. Alors Sp(eA ) = {e0 , e1 , e2 } = {1, e, e2 }.

85/90
2. Exponentielle d’une matrice et diagonalisation

2. Exponentielle d’une matrice et diagonalisation


Proposition 4 .

   
λ1 0 e λ1 0

Si D =  ..  est une matrice diagonale, alors eD = 
  .. 
.
 .   . 
0 λn 0 e λn

Preuve

Soit n ∈ N, on a
n  
X 1 k
λ1 0
 k=0 k!
 

n
X 1  
Sn = Dk = 
 .. .

.
k!  n

k=0  X 1 k 
 0 λ 
k! n
k=0
 
n
eλ1 0
X 1 k ..
λi = eλi , alors eD = lim Sn = 
 
Comme lim . .
n→+∞ k! n→+∞  
k=0
0 eλn

Exemple 3 .
 
e 0

1. exp(In ) =  .. 
 = eIn .
 . 
0 e
   
2iπ 0 1 0

2. exp  ..  
= .. 
 = In .
 .   . 
0 2iπ 0 1
3. exp(On ) = In .

Proposition 5 .
 
λ1 O
Si A est diagonalisable, i.e., ∃P inversible telle que P −1 AP = D = 
 .. 
, alors
 . 
O λn
 
e λ1 O

exp(A) = P  ..  −1
P .
 . 
O eλn

86/90
3. Cas d’une matrice nilpotente

En conséquence,

A est diagonalisable ⇔ exp(A) est diagonalisable.

Exemple 4 .
 
2 4 1
 
On considère la matrice A = 
 0 1 0 .

0 0 3
On a Sp(A) = {1, 2, 3}. A admet trois valeurs propres distinctes, donc elle est diagonalisable.

E1 = V ect{(−4, 1, 0)} ; E2 = V ect{(1, 0, 0)} et E3 = V ect{(1, 0, 1)}.

Donc
   
1 0 0 −4 1 1
A = P DP −1 où D = 
   
 0 2 0  et P =  1 .
0 0 
 
0 0 3 0 0 1

Par suite  
e 0 0
  −1
exp(A) = P  2
 0 e P .
0 
0 0 e3

3. Cas d’une matrice nilpotente


Dans le cas où la matrice est nilpotente, on est réduit à une somme finie.
Proposition 6 .

Si N est une matrice nilpotente d’indice de nilpotence p alors


p−1
X Nk N p−1
exp(N ) = = In + N + ... + .
k! (p − 1)!
k=0

Preuve

C’est évident, puisque ∀k ≥ p, on a N k = O. Alors, en appliquant la définition on aura


+∞ p−1
X Nk X Nk
exp(N ) = = .
k! k!
k=0 k=0

87/90
4. Application à la résolution des systèmes différentiels linéaires

4. Application à la résolution des systèmes différentiels li-


néaires
Proposition 7 .
d
∀A ∈ Mn (K), on a : (exp(tA)) = A exp(tA), ∀t ∈ R.
dt

Théorème 1 .

Soit A ∈ Mn (K). Alors, le système différentiel :


(
Ẋ(t) = AX(t)
X(0) = X0

admet une solution unique définie, pour tout t ∈ R, par X(t) = exp(tA)X0 .

Exemple 5 .

On considère le même système différentiel traité au chapitre précédent :



 ẋ1 (t) = x1 (t) + 2x2 (t) − 3x3 (t)


(SD) ẋ2 (t) = x1 (t) + 4x2 (t) − 5x3 (t)


 ẋ (t) = 2x (t) − 2x (t).
3 2 3

   
x1 (t) ẋ1 (t)
   
On pose X(t) = 
 x2 (t) , on a alors Ẋ(t) =  ẋ2 (t)  et :
  
x3 (t) ẋ3 (t)
 
1 2 −3
 
(SD) ⇔ Ẋ(t) = AX(t) avec A = 
 1 4 −5 .

0 2 −2

La diagonalisation de la matrice A a donné lieu à


   
0 0 0 1 1 1
−1
   
D = P AP où D =   0 1 0  et P =  1 3 2
  .

0 0 2 1 2 1

D’après le théorème précédent,


la solution du
 système (SD) est donnée
 par X(t) = exp(tA)X0 .
0 0 0 1 0 0
−1
  −1   −1
On a A = P DP ⇒ tA = P  ⇒ exp(tA) = P  t
 0 t 0 P  0 e 0 P .

0 0 2t 0 0 e2t

88/90
4. Application à la résolution des systèmes différentiels linéaires

Donc  
1 0 0
  −1
X(t) = exp(tA)X0 = P  t
 0 e 0  P X0 .
2t
0 0 e

Exercice :
 
2 0 1
 
Soit la matrice : A = 
 1 .
−1 −1 
−1 2 2
1. Calculer PA (X).
2. En déduire l’expression de exp(tA) pour tout t ∈ R.
3. Résoudre le système différentiel suivant :

 ẋ1 (t) = 2x1 (t) + x3 (t)


(Sd ) ẋ2 (t) = x1 (t) − x2 (t) − x3 (t)


 ẋ (t) = −x (t) + 2x (t) + 2x (t).
3 1 2 3

Solution :
1) On a :

2−X 0 1 2−X 0 1
PA (X) = 1 −1 − X −1 = 0 1−X 1−X L2 ← L2 + L3
−1 2 2−X −1 2 2−X
" #
2−X 1 2−X 0
= (1 − X) −
−1 −12−X 2
= (1 − X) (2 − X)2 + 1 − 2(2 − X)
 

= (1 − X)(X 2 − 2X + 1)
= −(X − 1)3 .

2) Posons N = A − I3 . Alors, d’après le théorème de Cayley-Hamilton, on a N 3 = 0, et donc N est


nilpotente d’indice 3. Ceci facilite le calcul de l’exponentielle de tN . En effet, on a
+∞ n n
X t N t2 2
exp(tN ) = = I3 + tN + N .
n! 2
n=0

D’autre part, puisque tA = tI3 + tN et que tI3 et tN commutent, on a


+∞ n n
X t N t2 2
exp(tA) = exp(tI3 ). exp(tN ) = = et (I3 + tN + N ).
n! 2
n=0

89/90
4. Application à la résolution des systèmes différentiels linéaires

On en déduit que  
1+t t2 t + t2
exp(tA) = et 
 
 t 1 − 2t + t2 −t + t2 .
−t 2t − t2 1+t−t 2

3) Soit X(t) = (x1 (t), x2 (t), x3 (t)) la solution du système (Sd ). On sait que X(t) = exp(tA)X(0). En
notant X(0) = (a, b, c), on trouve

t 2 t 2 t
 x1 (t) = a(1 + t)e + bt e + c(t + t )e


x2 (t) = atet + b(1 − t)2 et + c(−t + t2 )et

 x (t) = −atet + b(2t − t2 )et + c(1 + t − t2 )et .

3

90/90

Vous aimerez peut-être aussi