Vous êtes sur la page 1sur 86

Cours d’Algèbre III

Hippolyte HOUNNON, PhD


Chapter 1

DUALITÉ DANS LES ESPACES


VECTORIELS

K désigne un corps commutatif.

1.1 Espace dual d’un espace vectoriel


D ÉFINITION 1.1.1.
Soit E un espace vectoriel sur K. On appelle dual de E et on notera E ∗ l’espace
vectoriel L(E, K) des applications linéaires de E dans K (encore appelée forme
linéaires sur E).
R EMARQUE 1.1.1. Soit (e1 , e2 , · · · , en ) une base de E.
1. dimE ∗ = dim (L(E, K)) = dimE × dimK = dimE.
2. Donner f ∈ L(E, K) revient à donner a1 = f (e1 ), · · · , an = f (en ) et à poser
n
!
X
∀ (x1 , · · · , xn ) ∈ Kn , f xi ei = a1 x1 + · · · + an xn .
i=1

P ROPOSITION 1.1.1.
Soit E un espace vectoriel de dimension n sur K et soit (e1 , e2 , · · · , en ) une base de
E. Soit (e∗1 , · · · , e∗n ) la famille d’éléments de E ∗ définie par:

0 si i 6= j
∀ (i, j) ∈ {1, · · · , n}2 e∗i (ej ) = δij = (Symbole de Kronecker)
1 si i = j
Alors cette famille est une base de E ∗ . Elle est appelée base duale de la base
(e1 , e2 , · · · , en ).
Démonstration: Soit f ∈ E ∗ et x ∈ E. alors il existe (λ1 , · · · , λn ) ∈ Kn tel que
n
X
x= λi ei
i=1

1
1.1. ESPACE DUAL D’UN ESPACE VECTORIEL 2

n
! n
X X
Ainsi f (x) = f λi ei = λi f (ei ) car f ∈ L(E, K)
i=1 i=1
n
X n
X
= f (ei )λi = f (ei )e∗i (x)
i=1 i=1
Xn
d’où f = f (ei )e∗i
i=1

Par suite E ∗ ⊂ V ect(e∗1 , e∗2 , · · · , e∗n ).


Comme V ect(e∗1 , e∗2 , · · · , e∗n ) est sous-espace de E ∗ , on a E ∗ = V ect(e∗1 , e∗2 , · · · , e∗n ).
Ainsi (e∗1 , e∗2 , · · · , e∗n ) est système générateur de E ∗ constitué de n = dimE ∗ vecteurs.
Par conséquent (e∗i )1≤i≤n est une base de E ∗ . 

Attention: Chaque ei dépend de (e1 , e2 , · · · , en ) et non seulement de ei .
R EMARQUE 1.1.2. Soit (e1 , e2 , · · · , en ) une base d’un K-espace vectoriel E.
1. Dans l’isomorphisme E ∗ −→ M1n (K), f 7−→ M atB,(1) (f ), la base
(e∗1 , · · · , e∗n ) correspond à la base canonique de M1n (K).
n
P
2. Pour tout x = xi ei ∈ E, on a:
i=1

n
X
∀j ∈ bd1, nce, e∗j (x) = xi e∗j (ei ) = xj
i=1

n
e∗i (x)ei .
P
Ainsi pour tout x ∈ E, x =
i=1
n

f (ei )e∗i .
P
3. Pour tout f ∈ E , on a: f =
i=1

P ROPOSITION 1.1.2.
Soit E un espace vectoriel de dimension finie n sur K et
B = (e1 , · · · , en ) et B 0 = (e01 , · · · , e0n ) deux bases de E.
Posons P = PB,B0 et Q = PB∗ ,(B0 )∗ .
Alors Q = (P −1 )T .
Démonstration: Soit l ∈ bd1, nce. Alors il existe (p01l , p02l , · · · , p0nl ) ∈ Kn
n n
et (q1l , q2l , · · · , qnl ) ∈ Kn tels que el = p0kl e0k et (e0l )∗ = qkl (ek )∗ .
P P
k=1 k=1
Alors on a: P −1 = (p0ij )1≤i,j≤n et Q = (qij )1≤i,j≤n .
De plus pour tout (i, j) ∈ bd1, nce2 , on a:
n n
(e0j )∗ (ei ) = (e0j )∗ [ p0ki e0k ] = p0ki (e0j )∗ (e0k ) = p0ji .
P P
k=1 k=1

Hippolyte HOUNNON, PhD 2 FAST/UAC


1.1. ESPACE DUAL D’UN ESPACE VECTORIEL 3

 n
 n
Aussi a-t-on (e0j )∗ (ei ) = qkj (ek )∗ (ei ) = qkj (ek )∗ (ei ) = qij .
P P
k=1 k=1
En somme pour tout (i, j) ∈ bd1, nce2 , on a: p0ji = qij , soit Q = (P −1 )T .
Exercice d’application 1.1.1. Soit C = (e1 , e2 , e3 ) la base canonique. On considère
les vecteurs 
 u1 = (1, −1, 1)
u = (1, 0, 1)
 2
u3 = (0, 2, −1)
de R3 .
Prouver que B = (u1 , u2 , u3 ) est une base de R3 puis déterminer sa base duale.

Hippolyte HOUNNON, PhD 3 FAST/UAC


1.1. ESPACE DUAL D’UN ESPACE VECTORIEL 4

D ÉFINITION 1.1.2.
On appelle bidual de E et on notera E ∗∗ , l’espace (E ∗ )∗ dual de E ∗ .
P ROPOSITION 1.1.3.
Soit E un espace vectoriel sur K. Alors:
1. L’application
Φ : E −→ E ∗∗
x 7−→ x̃
où x̃ : E ∗ → K, ϕ 7→ x̃(ϕ) = ϕ(x)
est linéaire injective.
2. Si dim E est finie, l’application précédente est un isomorphisme.
Démonstration:
1. Pour tout x ∈ E l’application
x̃ : E ∗ −→ K
ϕ 7−→ ϕ(x) est linéaire.
En effet soit (ϕ1 , ϕ2 ) ∈ E ∗ × E ∗ et α ∈ K.

x̃(αϕ1 + ϕ2 ) = (αϕ1 + ϕ2 )(x)


= αϕ1 (x) + ϕ2 (x)
= αx̃(ϕ1 ) + x̃(ϕ2 )

On a donc x̃ ∈ E ∗∗ . Ainsi Φ est bien définie.


Prouvons maintenant que l’application Φ : E −→ E ∗∗
.
x 7−→ x̃ est linéaire
Soit (x, y, α) ∈ E × E × K et soit ϕ ∈ E ∗ . On a:
[Φ(αx + y)](ϕ) = αx˜+ y(ϕ)
= ϕ(αx + y)
= αϕ(x) + ϕ(y) car ϕ est linéaire
= αx̃(ϕ) + ỹ(ϕ)
= (αx̃ + ỹ)(ϕ)
= [αΦ(x) + Φ(y)](ϕ)
On en déduit que Φ(αx + y) = αΦ(x) + Φ(y). Par conséquent Φ est linéaire.
Prouvons que le noyau de Φ est réduit au vecteur nul.
Soit x ∈ E − {0E }, prouvons que x̃ 6= 0E ∗∗ c’est-à-dire il existe ϕ ∈ E ∗ tel que
ϕ(x) 6= 0.
Vect(x) étant un sous-espace vectoriel de E alors il admet au moins un supplé-
mentaire F dans E: F ⊕ V ect(x) = E. Comme le vecteur x est non nul alors
(x) est une base de V ect(x). Par conséquent pour tout u ∈ E, il existe un
unique (f, λ) ∈ F × K tel que u = f + λx. Considérons alors l’application
ϕ : E −→ K, f + λx 7→ λ

Hippolyte HOUNNON, PhD 4 FAST/UAC


1.1. ESPACE DUAL D’UN ESPACE VECTORIEL 5

On prouve facilement que ϕ ∈ L(E, K) et ϕ(x) = ϕ(0E + 1x) = 1. D’où


ϕ 6= 0KE . Ainsi x̃ 6= 0L(E ∗ ,K) .
On a prouvé alors que:
∀ x ∈ E, x 6= {0E } ⇒ x̃ 6= 0L(E ∗ ,K)
c’est-à-dire:
∀ x ∈ E, x̃ = 0L(E ∗ ,K) ⇒ x = 0E .
Par suite KerΦ = {0E }
2. Comme dimE est finie, on a dimE ∗∗ = dimE ∗ = dimE.
Donc l’application linéaire Φ de E dans E ∗∗ est un isomorphisme.
C OROLLAIRE 1.1.1.
Soit E un espace vectoriel de dimension finie. Alors toute base de E ∗ est la base
duale d’une et une seule base de E.
Démonstration: Soit (f1 , · · · , fn ) une base de E ∗ . Soit (e1 , · · · , en ) une base
de E. Alors (f1 , · · · , fn ) est la base duale de (e1 , · · · , en ) si et seulement si on a:
pour tout (i, j) ∈ bd1, nce2 , fi (ej ) = δij c’est-à-dire ẽj (fi ) = δij . Ce qui signifie
que (ẽ1 , · · · , ẽn ) est une base de E ∗∗ , duale de la base (f1 , · · · , fn ) de E ∗ . Comme
l’application E −→ E ∗∗ , x 7→ x̃ est un isomorphisme, et (f1∗ , · · · , fn∗ )
la base duale de la base (f1 , · · · , fn ), alors pour tout 1 ≤ i ≤ n il existe un unique
ei ∈ E tel que ẽi = fi∗ . Alors (e1 , · · · , en ) est une base de E et c’est l’unique
solution. 

Exercice d’application 1.1.2. Soit C = (e1 , e2 , e3 ) la base canonique de R3 .


Soit f1∗ , f2∗ , f3∗ trois éléments de (R3 )∗ définis par:
 ∗
 f1 (x) = x1 + x2 + x3
3
∀x = (x1 , x2 , x3 ) ∈ R , f ∗ (x) = x2 + x3
 2∗
f3 (x) = x1 + x2

1. Prouver que (f1∗ , f2∗ , f3∗ ) est une base de (R3 )∗ .


2. Déterminer la base (f1 , f2 , f3 ) de (R3 ) dont (f1∗ , f2∗ , f3∗ ) est la base duale.

Hippolyte HOUNNON, PhD 5 FAST/UAC


1.1. ESPACE DUAL D’UN ESPACE VECTORIEL 6

P ROPOSITION 1.1.4.
Soient E et F des K-espaces vectoriels. Soit f ∈ L(E, F ). L’application

Φf : F ∗ −→ E ∗
ϕ 7−→ ϕ ◦ f

est une application linéaire, appelée transposée de f et est notée f T .


Démonstration: Soit ϕ ∈ F ∗ = L(F, K). Alors ϕ ◦ f ∈ L(E, K). D’où Φf est
bien définie.
Soit (α, ψ) ∈ K × F ∗ .
def
Φf (αϕ + ψ) = (αϕ + ψ) ◦ f
= αϕ ◦ f + ψ ◦ f
= αΦf (ϕ) + Φf (ψ)

Ainsi Φf est linéaire.


R EMARQUE 1.1.3.
L’application L(E, F ) −→ L(F ∗ , E ∗ )
f 7−→ f T
est également linéaire. (preuve facile)
P ROPOSITION 1.1.5.
Soit E, F, G trois K-espaces vectoriels et soit f ∈ L(E, F ), g ∈ L(F, G). Alors:

(g ◦ f )T = f T ◦ g T et (IdE )T = IdE ∗

Démonstration: On a:
f g gT fT
E −→ F −→ G, G∗ −→ F ∗ −→ E ∗
Soit ϕ ∈ L(G, K). Alors:

f T ◦ g T (ϕ) = f T g T (ϕ)
  

= f T (ϕ ◦ g)
= (ϕ ◦ g) ◦ f
= ϕ ◦ (g ◦ f )
= (g ◦ f )T (ϕ)

d’où (g ◦ f )T = f T ◦ g T .
Soit ψ ∈ L(E, K). Alors

(IdE )T (ψ) = ψ ◦ IdE = ψ = IdE ∗ (ψ)

d’où (IdE )T = IdE ∗ .

Hippolyte HOUNNON, PhD 6 FAST/UAC


1.2. ORTHOGONALITÉ AU SENS DE DUALITÉ 7

P ROPOSITION 1.1.6.
Soit E, F deux K-espaces vectoriels de bases respectives B = (e1 , · · · , em ) et
C = (e01 , · · · , e0n ) et soit f ∈ L(E, F ).
Posons A = M atB,C (f ) et B = M atC ∗ ,B∗ (f T ).
Alors B = AT .
Démonstration: Posons A = (aij )1≤i≤m, 1≤j≤n et B = (bij )1≤i≤m,1≤j≤n .
Pour tout j ∈ bd1, nce, on a:
m

X
(f T
)(e0j ) = bij e∗i
i=1

c’est-à-dire e0j ∗ (f (ek )) = bkj pour tout k ∈ bd1, mce, or


m
! m
0∗ 0∗ ∗
X X
0
aik e0j (e0i ) = ajk
 
ej (f (ek )) = ej aik ei =
i=1 i=1

d’où bkj = ajk pour tout (k, j) ∈ bd1, mce × bd1, nce. Ainsi B = AT .
C OROLLAIRE 1.1.2.
Soit A ∈ Mn,m (K) et B ∈ Mm,P (K). Alors

(AB)T = B T AT

Preuve: Conséquence des deux précédentes propositions.

1.2 Orthogonalité au sens de dualité


P ROPOSITION 1.2.1. L’application
b : E × E ∗ −→ K
not
(x, ϕ) 7−→ ϕ(x) = hx, ϕi
est linéaire par rapport à chacune des variables ( on dit qu’elle est bilinéaire).

Cette application est appelée crochet de dualité.


Preuve: Evidente
D ÉFINITION 1.2.1.
Soit E un K-espace vectoriel.
1. Soient x ∈ E et ϕ ∈ E ∗ .
On dit que x et ϕ sont orthogonaux pour la dualité lorsque
ϕ(x) = 0 i.e hx, ϕi = 0

Hippolyte HOUNNON, PhD 7 FAST/UAC


1.2. ORTHOGONALITÉ AU SENS DE DUALITÉ 8

2. Soit A ⊂ E.
L’ensemble {ϕ ∈ E ∗ / ∀ a ∈ A, ha, ϕi = 0} noté A⊥ , est appelée l’orthogonal
de A.
Soit A ⊂ E ∗ . On appelle orthogonal de A, et on note ⊥ A, le sous-ensemble de E
défini par:

A = {x ∈ E/ ∀ϕ ∈ A, hx, ϕi = 0}.
E XEMPLE 1.2.1.
4
1. E = R4 et A = {(1, 0, 0, 0), (1, 2, 3, 4)}. Soit ϕ = αi e∗i avec (α1 , · · · , α4 ) ∈
P
i=1
R4 et (e1 , · · · , e4 ) base canonique de R4 et (e∗1 , · · · , e∗4 ) base duale de (e1 , · · · , e4 )

⊥ he1 , ϕi = 0
ϕ∈A ⇔
he1 + 2e2 + 3e3 + 4e4 , ϕi = 0

 α1 = 0
⇔ P4
 iαi = 0
i=1

 α1 = 0
⇔ P4
 iαi = 0
 i=2
α1 = 0

α2 = − 12 (3α3 + 4α4 )

d’où A⊥ = V ect(− 23 e∗2 + e∗3 , −2e∗2 + e∗4 ).


On remarque A⊥ est un sous-espace vectoriel de E ∗ et on peut prouver que
dimA⊥ = 2
2. Soit ϕ ∈ E ∗ .

{ϕ} = {x ∈ E/ ϕ(x) = 0} = Kerϕ

P ROPRIÉTÉS 1.2.1.
Soit E un K-espace vectoriel et A ⊂ E, et B ⊂ E.
P1 : A ⊂ B, B ⊥ ⊂ A⊥
P2 : A ⊂ ⊥ (A⊥ )
P3 : A⊥ est sous-espace vectoriel de E ∗ et A⊥ = (V ect(A))⊥ .
En particulier, si F est un sous-espace vectoriel de E de base (e1 , e2 , · · · , er )
et ϕ ∈ E ∗ , on a:
ϕ ∈ F ⊥ ⇐⇒ ∀ i ∈ bd1, rce, ϕ(ei ) = 0.
P4 : Si F et G sont deux sous-espaces vectoriels de E alors (F + G)⊥ = F ⊥ ∩ G⊥ .

Hippolyte HOUNNON, PhD 8 FAST/UAC


1.2. ORTHOGONALITÉ AU SENS DE DUALITÉ 9

P5 : F sous-espace vectoriel de E.
F = {0E } ⇔ F ⊥ = E ∗ , F = E ⇔ F ⊥ = {0E ∗ }.
Les propriétés P1 , P2 , P3 , P4 sont analogues dans E ∗ et pour ⊥ ( ).
Démonstration: P5 : Si F = {0E } on a F ⊥ = {ϕ ∈ E ∗ / ϕ(0E ) = 0} = E ∗ .
Si F 6= {0E }, alors il existe x ∈ F \ {0E }. On a donc x̃ 6= 0. Par suite il existe
ϕ ∈ E ∗ tel que ϕ(x) 6= 0. Ainsi ϕ ∈
/ F ⊥ . Par conséquent E ∗ 6= F ⊥ .
Si F = E on a F ⊥ = {ϕ ∈ E ∗ / ∀ x ∈ E ϕ(x) = 0} = {0E ∗ }
Si F 6= E soit x ∈ E \ F et soit G un supplémentaire de F ⊕ Kx dans E. On a
E = F ⊕ Kx ⊕ G.
On considère l’application ϕ : E → K, f + λx + g 7→ λ.
On prouve facilement que ϕ 6= 0E ∗ et ϕ ∈ F ⊥ . Donc F ⊥ 6= {0E ∗ }.
T HÉORÈME 1.2.1.
On suppose E de dimension finie n. Soit F et G des sous-espaces vectoriels supplé-
mentaires dans E (on a donc E = F ⊕ G). Alors on a:
1. E ∗ = F ⊥ ⊕ G⊥
dim(F ⊥ ) = n − dim(F )

2.
dim(G⊥ ) = n − dim(G)
Démonstration:
1. Supposons que E = F ⊕ G
Si F = {0E } alors G = E Ainsi F ⊥ = E ∗ et G⊥ = {0E ∗ }.
Or E ∗ = E ∗ ⊕ {0E ∗ } = F ⊥ ⊕ G⊥ .
Ainsi si l’un des sous-espaces vectoriels est réduit au vecteur nul, on a le résul-
tat.
Supposons qu’aucun des sous-espaces vectoriels F et G n’est réduit au vecteur
nul.
Soient (e1 , · · · , er ) une base de F, et (er+1 , · · · , en ) une base de G.
Soit (e∗1 , · · · , e∗n ) la base de E ∗ duale de la base (e1 , · · · , en ) de E.
n
yi e∗i ∈ E ∗ avec (y1 , · · · , yn ) ∈ Kn . Alors on a:
P
Soit f =
i=1

f ∈ F ⊥ ⇐⇒ ∀ j ∈ {1, · · · , r}, f (ej ) = 0


⇐⇒ ∀ j ∈ {1, · · · , r}, yj = 0
⇐⇒ f ∈ V ect(e∗r+1 , · · · , e∗n ).

De même G⊥ = V ect(e∗1 , · · · , e∗r ). D’où E ∗ = F ⊥ ⊕ G⊥


2. Conséquence de 1. car dimE ∗ = dimE et dimF ⊥ = dimG.

Hippolyte HOUNNON, PhD 9 FAST/UAC


1.2. ORTHOGONALITÉ AU SENS DE DUALITÉ 10

C OROLLAIRE 1.2.1. On suppose que E est de dimension finie n. Alors, si F est un


sous-espace vectoriel de E ∗ , on a:

dim⊥ F = dimE − dimF

Démonstration: On applique le théorème précédent à E ∗ et à son dual E ∗∗ . On


obtient:

dimF ⊥ = n − dimF avec F ⊥ ⊂ E ∗∗


F ⊥ = {α ∈ E ∗∗ / ∀ ϕ ∈ F, α(ϕ) = 0}
= {x̃ / x ∈ E ∀ ϕ ∈ F ϕ(x) = 0}

car l’application E −→ E ∗∗ est bijective


x 7−→ x̃
⊥ ⊥
Donc F = F̃. Ainsi, comme l’application est un isomorphisme, on a:

dim⊥ F = dimF ⊥ = n − dimF.

C OROLLAIRE 1.2.2.
On suppose que E est de dimension finie, et soit F un sous-espace vectoriel de E ∗ .
On a:
F = {0E ∗ } ⇐⇒ ⊥ F = E


F = E ∗ ⇐⇒ ⊥ F = {0E }
R EMARQUE 1.2.1.
La première équivalence peut se démontrer directement en dimension quelconque
ainsi que la partie directe de la seconde.
C OROLLAIRE 1.2.3.
On suppose E de dimension finie.
1. Si F est un sous-espace vectoriel de E on a ⊥ (F ⊥ ) = F .
Si F est un sous-espace vectoriel de E ∗ on a (⊥ F)⊥ ) = F.
2. Si F et G sont des sous-espaces vectoriels de E, on a:
F ⊆ G ⇐⇒ G⊥ ⊆ F ⊥
(F ∩ G)⊥ = F ⊥ + G⊥
3. Si F et G sont des sous-espaces vectoriels de E ∗ , on a:
F ⊆ G ⇐⇒ ⊥ G ⊆ ⊥ F

(F ∩ G) =⊥ F +⊥ G
Démonstration:
1. On a F ⊆ ⊥ (F ⊥ ) avec dimF = dim⊥ (F ⊥ )
(démonstration analogue pour F).

Hippolyte HOUNNON, PhD 10 FAST/UAC


1.3. EXERCICES 11

2. F ⊆ G =⇒ G⊥ ⊆ F ⊥ et G⊥ ⊆ F ⊥ =⇒ ⊥ (F ⊥ ) ⊆ ⊥ (G⊥ )
| {z } | {z }
F G
(démonstration analogue pour F et G).
3. Pour montrer qu’on a (F ∩ G)⊥ = F ⊥ + G⊥ , il est donc suffisant de montrer
que F ∩ G =⊥ (F ⊥ + G⊥ ).
Or on a ⊥ (F ⊥ + G⊥ ) =⊥ (F ⊥ ) ∩ ⊥ (G⊥ ) = F ∩ G
P ROPOSITION 1.2.2.
Soit E un K-espace vectoriel de dimension finie non nulle et H un sous-espace vec-
toriel de E.
Les assertions suivantes sont équivalentes:
1. H est un hyperplan
2. ∀ a ∈ E − H, E = H ⊕ Ka
3. ∃ a ∈ E − H, E = H ⊕ Ka
4. ∃ ϕ ∈ E ∗ − {0E ∗ } / Kerϕ = H
Preuve: (1) ⇒ (2)
Comme E est de dimension non nulle alors E n’est réduit au vecteur nul. Par
suite E − H est non vide. Ainsi pour tout a ∈ E − H, H ∩ Ka = {0E } et
dimH + dimKa = dimE d’où E = H ⊕ Ka
(2) ⇒ (3) évident
(3) ⇒ (4) Soit ψ : H + Ka −→ K
h + ka 7−→ k
On prouve facilement que ψ est linéaire et Kerψ = H. Ainsi on choisit ϕ = ψ
(4) ⇒ (1) Utilisant le théorème du rang on a le résultat (bon execice de maison).

1.3 Exercices
Exercice 1

Déterminer la forme linéaire f définies sur R3 par


f (1, 1, 1) = 0, f (2, 0, 1) = 1, f (1, 2, 3) = 4
Donner une base du noyau de f .
Exercice 2
Soit f1 , f2 deux formes sur R2 définies par:
f1 (x, y) = x + y et f2 (x, y) = x − y

Hippolyte HOUNNON, PhD 11 FAST/UAC


1.3. EXERCICES 12

1. Prouver que (f1 , f2 ) forme une base de (R2 )∗ .


2. Exprimer les formes linéaires g et h dans la base (f1 , f2 ):

g(x, y) = x, h(x, y) = 2x − 6y

Exercice 3

Soit E = Rn [X] muni de sa base canonique Bn = (1, X, . . . , X n ). Pour tout


i ∈ {0, . . . , n}, on définit la forme linéaire fi sur E par:

1 si i = j
∀j ∈ {0, . . . , n}, fi (X j ) =
0 sinon
1. Justifier que (f0 , . . . , fn ) est une base de E ∗ .
2. On considère les deux formes ϕ et ψ de E ∗ définies par, pour tout P ∈ E,
ϕ(P ) = P (0)
et ψ(P ) = P (1).
Déterminer les coordonnées de chacune de ces deux formes dans la base (f0 , . . . , fn ).
3. On suppose pour toute la suite de l’exercice que E = R3 [X].
Soit u l’endomorphisme de E définit par u(P ) = P + (1 − X)P 0 .
(a) Donner la matrice de u dans la base canonique B3 de E.
(b) Déterminer la matrice de uT dans (B3 )∗ puis le noyau de uT .
(c) Déterminer l’orthogonal (au sens de la dualité) du sous-espace vectoriel F
de E engendré par u(X 2 ).

Exercice 4

Dans l’espace E = R4 muni de sa base canonique C on considère les vecteurs


u = (1, 1, 1, 0), v = (1, 0, 1, 0), w = (1, 1, 0, 0) et les formes linéaires ϕ, φ definies
par
ϕ(x, y, z, t) = 2x + y + z et φ(x, y, z, t) = −x + 2z.

Déterminer l’orthogonal de V ect(u, v, w) puis celui de V ect(ϕ, φ).

Exercice 5

Soient E un K espace vectoriel et ϕ, ψ deux formes linéaires sur E telles que ker(ϕ) ⊂
ker(ψ).
1. Prouver qu’il existe α ∈ K tel que ψ = αϕ.
2. Prouver que si ψ est non nulle alors ker(ϕ) = ker(ψ).

Hippolyte HOUNNON, PhD 12 FAST/UAC


1.3. EXERCICES 13

Exercice 6

Soient E un K espace vectoriel de dimension finie non nulle n et (ϕi )1≤i≤n une
famille d’éléments de E ∗ . n

T
Démontrer que (ϕi )1≤i≤n est une base de E si et seulement ker(ϕi ) = {0}.
i=1

Hippolyte HOUNNON, PhD 13 FAST/UAC


Chapter 2

Déterminant

K est un corps de caractéristique différente de 2 c’est-à-dire tel que


(∀x ∈ K, 2x = 0 ⇒ x = 0).

2.1 Applications multilinéaires


2.1.1 Généralités
D ÉFINITION 2.1.1.
Soit p ∈ N∗ , E1 , . . . , Ep , F des K-espaces vectoriels.
Une application ϕ : E1 , × · · · × Ep → F est dite p-linéaire (ou: multilinéaire) si et
seulement si ϕ est linéaire par rapport à chaque variable, c’est-à -dire:
∀i ∈ {1, . . . , p}, ∀λ ∈ K, ∀x1 ∈ E1 , . . . , ∀xi ∈ Ei , . . . , ∀xp ∈ Ep ,
∀y1 ∈ E1 , . . . , ∀yi ∈ Ei , . . . , ∀yp ∈ Ep :
ϕ(x1 , . . . , xi−1 , λxi +yi , xi+1 , . . . , xp ) = λϕ(x1 , . . . , xi , . . . , xp )+ϕ(x1 , . . . , yi , . . . , xp ).
Si de plus F = K et E1 = E2 = · · · = Ep = E, on dit que ϕ est une forme p-linéaire
de E .
E XEMPLE 2.1.1. 1. Pour p = 1, la notion d’application 1-linéaire coincide avec
celle d’application linéaire.
2. L’application nulle est p-linéaire.
ϕ : R 2 × R2 → R
3. L’application
((x1 , x2 ), (y1 , y2 )) 7−→ x1 y1 + x2 y2 .
est une forme 2-linéaire (on dit plutôt : bilinéaire) appellé produit scalaire
canonique sur R2 .
4. Le produit vectoriel dans R3 , ϕ : R3 × R3 → R3 , défini par
ϕ((x1 , x2 , x3 ), (y1 , y2 , y3 )) = (x2 y3 − x3 y2 , x3 y1 − x1 y3 , x1 y2 − x2 y1 ). est une
application bilinéaire.
P ROPRIÉTÉS 2.1.1.
L’ensemble Lp (E1 × · · · × Ep , F ) des applications p-linéaires de E1 × · · · × Ep
dans F est un K-espace vectoriel.

14
2.1. APPLICATIONS MULTILINÉAIRES 15

Preuve
Il est facile de prouver que Lp (E1 × · · · × Ep , F ) est un s.e.v de F E1 ×···×Ep .

2.1.2 Applications multilinéaires alternées


Soient E un K-espace vectoriel, et p ∈ N − {0, 1}.
D ÉFINITION 2.1.2.
Une application p-linéaire ϕ : E p → F est dite alternée lorsque pour tout couple
(i, j) de {1, . . . , p}2 tel que i 6= j, et pour tout (u1 , . . . , up ) de E p : ui = uj ⇒
ϕ(u1 , . . . , up ) = 0F .
Si de plus F = K, on dit que ϕ est une forme p-linéaire alternée de E.
R EMARQUE 2.1.1.
L’ensemble des applications p-linéaires alternées de E p dans F est un s.e.v de
not.
Lp (E p , F ) = Lp (E, F ).
P ROPRIÉTÉS 2.1.2.
Une forme p-linéaire ϕ : E p → K est alternée si et seulement si :
∀σ ∈ Sp , ∀(u1 , . . . , up ) ∈ E p , ϕ(uσ(1) , . . . , uσ(p) ) = ε(σ)ϕ(u1 , . . . , up ).
Preuve
Soit ϕ : E p → K une forme p-linéaire.
(⇒) Supposons que ϕ est alternée.
Soit (u1 , u2 , . . . , up ) ∈ E p .
Soit σ ∈ Sp . Alors il existe k-transpositions t1 , t2 , . . . , tk tel que σ = t1 ◦ · · · ◦ tk
(avec k ≥ 1).
1er cas: Supposons k = 1.
Alors il existe (i, j) ∈ [|1, p|]2 avec i < j tel que

 l si l ∈ [|1, p|] − {i, j}
σ(l) = i si l=j
j si l=i

Comme ϕ est alternée, on a :


ϕ(u1 , . . . , ui−1 , ui + uj , ui+1 ; . . . , uj−1 , ui + uj , uj+1 . . . , up ) = 0
d’où en développant par mutilinéarité on a:
ϕ(u1 , . . . , ui , . . . , uj−1 , ui , uj+1 . . . , up ) + ϕ(u1 , . . . , ui , . . . , uj−1 , uj , . . . , up ) +
ϕ(u1 , . . . , uj , . . . , uj−1 , ui , . . . , up ) + ϕ(u1 , . . . , uj , . . . , uj−1 , uj , . . . , up ) = 0.
Ainsi on a: . ϕ(u1 , . . . , uj , . . . , ui , . . . , up ) = −ϕ(u1 , . . . , ui , . . . , uj , . . . , up )
c’est -à-dire:
ϕ(uσ(1) , . . . , uσ(i) , . . . , uσ(j) , . . . , uσ(p) ) = ε(σ)ϕ(u1 , u2 , . . . , up )
2éme cas: k ≥ 2.
Alors ε(σ) = (−1)k .

Hippolyte HOUNNON, PhD 15 FAST/UAC


2.1. APPLICATIONS MULTILINÉAIRES 16

L’application du 1er cas donne:

ϕ(uσ(1) , . . . , uσ(i) , . . . , uσ(j) , . . . , uσ(p) ) = ϕ(ut1 [(t2 ◦···◦tk )(1)] , . . . , ut1 [(t2 ◦···◦tk )(p)] )
= (−1)1 ϕ(u(t2 ◦···◦tk )(1) , . . . , u(t2 ◦···◦tk )(p) )
= (−1)2 ϕ(u(t3 ◦···◦tk )(1) , . . . , u(t3 ◦···◦tk )(p) )
.. ..
. .
= (−1)k ϕ(u1 , . . . , up ) (de façon itérée)
ϕ(uσ(1) , . . . , uσ(i) , . . . , uσ(j) , . . . , uσ(p) ) = ε(σ)ϕ(u1 , . . . , up ).
(⇐) Supposons que
∀σ ∈ Sp , ∀(u1 , . . . , up ) ∈ E p , ϕ(uσ(1) , . . . , , uσ(p) ) = ε(σ)ϕ(u1 , . . . , up )
Soit (i, j) ∈ [|1, p|]2 tel que i < j et soit (u1 , . .
. , up ) ∈ E p tel que ui = uj .
 i si l=j
Considérons la transposition σ définie par σ(l) = j si l=i .
l si l 6= i et l 6= j

Alors

ϕ(u1 , . . . , ui , ui+1 , . . . , uj , . . . , up ) = −ϕ(uσ(1) , . . . , uσ(i) , . . . , uσ(j) , . . . , uσ(p) )


= −ϕ(u1 , . . . , uj , . . . , ui , . . . , up )
= −ϕ(u1 , . . . , ui , . . . , uj , . . . , up ) car ui = uj
d’où 2.ϕ(u1 , . . . , , . . . , up ) = 0.
c’est-à -dire ϕ(u1 , . . . , . . . , up ) = 0 car K est de caractéristique différente de 2.
Ainsi ϕ est alternée.
P ROPRIÉTÉS 2.1.3.
Soit p ≥ 2. Soient ϕ : E p → K est une forme p-linéaire et alternée, et (u1 , . . . , up ) ∈
E p.
Si (u1 , . . . , up ) est liée, alors ϕ(u1 , . . . , up ) = 0.
Preuve
Supposons la famille (u1 , . . . , up ) liée; alors il existe 1 ≤ j ≤ p tel que
p
αi ui avec (α1 , . . . , αj−1 , αj+1 , . . . , αp ) ∈ Kp−1 .
P
uj =
i=1
i 6= j
Ainsi p
P
ϕ(u1 , . . . , uj−1 , xj , uj+1 , . . . , up ) = αi ϕ(u1 , . . . , uj−1 , ui , uj+1 , . . . , up ) = 0,
i=1
i 6= j
puisque chaque p-uplet (u1 , . . . , uj−1 , xi , uj+1 , . . . , up ), i ∈ [|1, p|] − {j} comporte
une répétition.

Hippolyte HOUNNON, PhD 16 FAST/UAC


2.2. DÉTERMINANT 17

C OROLLAIRE 2.1.1.
Si p > dim(E), alors la seule forme p-linéaire et alternée de E est l’application
nulle.
Indication: Toute famille de tels p éléments de E est liée.

2.2 Déterminant
2.2.1 Déterminant d’une famille de n-vecteurs dans une base d’un e.v de di-
mension n
Soit n ∈ N − {0, 1} et E un K-e.v de dimension n.
T HÉORÈME ET D ÉFINITION 2.2.1.
Soit B = (e1 , e2 , . . . , en ) une base de E.
L’application: detB : E n → K, (v1 , . . . , vn ) 7−→
P
ε(σ)aσ(1)1 aσ(2)2 . . . aσ(n)n
σ∈Sn
n
P
avec vj = aij ei et aij ∈ K pour tout j ∈ [|1, n|],
i=1

est une forme n-linéaire alternée, et le scalaire detB (v1 , . . . , vn ) est appelé déter-
minant de la famille(v1 , . . . , vn ) dans la base B.
Preuve: En Exercice .
E XEMPLE 2.2.1. 1. Soit V1 = (a11 , a21 ) et V2 = (a12 , a22 ) deux vecteurs de R2
muni de la base canonique C2 .
detC2 (v1 , v2 ) =?.
On a deux
 permutations
 de {1, 2}:
1 2 1 2
σ1 = et σ2 =
1 2 2 1
ε(σ1 ) = 1 et ε(σ2 ) = −1
detC2 (v1 , v2 ) = a11 a22 − a21 a12 .
2. Soit u1 = (a11 , a21 , a31 ), u2 = (a12 , a22 , a32 ) et u3 = (a13 , a23 , a33 ) trois
vecteurs du R − e.v R3 muni de sa base canonique C3 .
On a 6permutations  de {1,  2, 3} :   
1 2 3 1 2 3 1 2 3
σ1 = , σ2 = = (12), σ3 = = (13),
1 2 3 2 1 3 3 2 1
   
1 2 3 1 2 3
σ4 = = (23), σ5 = = (123),
1 3 2 2 3 1
 
1 2 3
σ6 = = (132) = (13)(32).
3 1 2
detC2 (u1 , u2 , u3 ) = a11 a22 a33 − a21 a12 a33 − a31 a22 a13 − a11 a32 a23 + a21 a32 a13 +
a31 a12 a23 .

Hippolyte HOUNNON, PhD 17 FAST/UAC


2.2. DÉTERMINANT 18

Pour toute la suite on note B(E) = ensemble des bases de E.


R EMARQUE 2.2.1. Pour tout B ∈ B(E), detB (B) = 1.
P n
En effet, soit B = (e1 , e2 , . . . , en ) ∈ B(E). On a ej = δij ei pour tout
P i=1
j ∈ [|1, n|]. Par suite detB (B) = ε(σ)δσ(1)1 δσ(2)2 . . . δσ(n)n . Or, pour tout
σ∈Sn
σ ∈ Sn − {Id[|1,n|] }, il existe i ∈ [|1, n|] tel que σ(i) 6= i.
Ainsi, δσ(1)1 δσ(2)2 . . . δσ(n)n = 0 pour tout σ ∈ Sn − {Id[|1,n|] }.
D’où detB (B) = ε(Id[|1,n|] )δ11 δ22 . . . δnn = 1
Nous admettons:
T HÉORÈME 2.2.1.
L’ensemble Λn (E) des formes n-linéaires alternées sur le K-e.v E est un s.e.v de
Ln (E, K) engendré par (detB ) pour tout B ∈ B(E) et dimK Λn (E) = 1. Ainsi une
base de Λn (E) est (detB ).
P ROPRIÉTÉS 2.2.1. 1. Pour tout (ϕ, B) ∈ (Λn (E) × B(E)).

ϕ = ϕ(B)detB .

2. Pour tout (B, B 0 ) ∈ (B(E))2 ,

detB0 = detB0 (B)detB .

3. Pour tout (B, B 0 ) ∈ B(E) × B(E),


1
detB0 (B) =
detB (B 0 )

4. Pour tout B ∈ B(E) et S ∈ E n ,

S lié ⇐⇒ detB (S) = 0.

Preuve
1. Soit ϕ ∈ Λn (E), soit (B, S) ∈ B(E) × E n .
Comme Λn (E) = V ect(detB ), alors il existe α ∈ K tel que ϕ = αdetB ;
d’où ϕ(S) = αdetB (S) et ϕ(B) = αdetB (B) = α. car detB (B) = 1.
Par suite ϕ(S) = ϕ(B)detB (S).
2. Soit (B, B 0 ) ∈ B(E) × B(E).
En prenant ϕ = detB0 dans 1. on a: detB0 (S) = detB0 (B)det(B) (S), ∀S ∈ E n .
3. Soit (B, B 0 ) ∈ B(E)×B(E). D’après 2. on a: 1 = detB0 (B 0 ) = detB0 (B).detB (B 0 ).
1
D’où detB (B 0 ) = .
detB0 (B)
Hippolyte HOUNNON, PhD 18 FAST/UAC
2.2. DÉTERMINANT 19

4. Soit S ∈ E n . Supposons (S) lié.


Alors pour tout B ∈ B(E), detB (S) = 0 car detB ∈ Λn (E).
Réciproquement supposons que (S) libre.
Alors (S) est un système libre de n vecteurs en dimensions n . Ainsi (S) est une
base de E. Par suite detB (S) = detS1(B) 6= 0 (d’après 3).

2.2.2 Déterminant d’un endomorphisme


On considère toujours l’espace vectoriel E muni d’une base B0 = (e1 , e2 , . . . , en )
D ÉFINITION 2.2.1.
On appelle déterminant dans la base B0 ∈ B(E) de f ∈ L(E), le déterminant dans
la base B0 de la famille (f (e1 ), . . . , f (en )). On le note detB0 (f ).
E XEMPLE 2.2.2.
Soit l’endomorphisme h : R2 −→ R2
(x, y) 7−→ (−x + y, −2x)
1. Déterminer le déterminant de h dans la base canonique de R2
2. Prouver que la famille ((1, 1), (−1, 1)) est une base de R2 puis déterminer dans
cette base le déterminant de h.
Réponse

P ROPRIÉTÉS 2.2.2. 1. Pour tout B ∈ B(E), detB (IdE ) = 1.


2. Pour tout (B, S) ∈ B(E) × E n et pour tout f ∈ L(E), on a

detB (f (S)) = detB (f )detB (S).

Hippolyte HOUNNON, PhD 19 FAST/UAC


2.2. DÉTERMINANT 20

3. Pour tout (B, B 0 ) ∈ B(E) × B(E) et pour tout f ∈ L(E) on a:


detB (f ) = detB0 (f )
(c’est-à -dire le déterminant ne dépend pas de la base choisie).
4. Pour tout α ∈ K et pour tout f ∈ L(E) on a:
det(αf ) = αn det(f ).
5. Pour tout (f, g) ∈ L(E) × L(E) on a
det(f og) = det(f )det(g).
6. Soit f ∈ L(E). Alors
f ∈ GL(E) ⇐⇒ det(f ) 6= 0
1
7. Soit f ∈ GL(E). Alors detB (f −1 ) = .
detB (f )
Preuve

1. Soit B ∈ B(E)
detB (IdE ) = detB (B) = 1.
2. Soit f ∈ L(E), B = (e1 , e2 , . . . , en ) ∈ B(E) et S = (v1 , v2 , . . . , vn ) ∈ E n
n
aij j eij avec aij j ∈ K pour tout (ij , j) ∈ [|1, n|]2 .
P
Posons vj =
ij =1
n
P n
P
detB (f (S)) = detB (f (v1 ), . . . , f (vn )) = detB ( ai1 1 f (ei1 ), . . . , ain n f (ein ))
i1 =1 in =1
2
tous les termes detB (f (ek1 ), . . . , f (ekn )), où il existe (i, j) ∈ [|1, n|] tel que
i 6= j mais ki = kj , sont nuls car detB est une forme n-linéaire alternée. Ainsi
on peut conclure que seuls les termes detB (f (ek1 ), . . . , f (ekn )), avec
ki 6= kj si i 6= j sont éventuellement non nul et correspondent exactement aux
termes detB (f (eσ(1) ), f (eσ(2) ), . . . , f (eσ(n) ) lorsque σ parcourt Sn . Ainsi
P
detB (f (S)) = aσ(1)1 aσ(2)2 , . . . , aσ(n)n detB (f (eσ(1) ), f (eσ(2) ), . . . , f (eσ(n) ))
σ∈S
P n

= ε(σ)aσ(1)1 aσ(2) , . . . , aσ(n)n detB (f (e1 ), . . . , f (en ))


σ∈Sn
= detB (S) × detB (f )
3. Soit B = (e1 , . . . , en ) et B 0 = (e01 , . . . , e0n ) deux bases de E. On a:
detB0 (f ) = detB0 (f (e01 ), . . . , f (e0n ))
= detB0 (B) × detB (f (e01 ), . . . , f (e0n )) (Propriété 2.2.1(2))
= detB0 (B) × detB (f ) × detB (e01 , . . . , e0n )
= detB0 (B) × detB (B 0 )detB (f )
= detB (f ) (Propriété 2.2.1(3)) .

Hippolyte HOUNNON, PhD 20 FAST/UAC


2.2. DÉTERMINANT 21

4.
det(αf ) = detB (αf (B))
= detB (αf (e1 ), . . . , αf (en ))
= αn detB (f (e1 ), . . . , f (en )) car det est n-linéaire
= αn det(f ).
5.
det(gof ) = det(g(f (e1 )), . . . , g(f (en )))
= det[g(f (B)]
= det(g) × det(f (B)) (Propriété 2.2.1 (2)) .
= det(g) × det(f ).
6. Soit f ∈ L(E)

f ∈ GL(E) ⇐⇒ ∀B ∈ B(E), f (B) libre, (à justifier)


⇐⇒ ∀B ∈ B(E), detB (f (B)) 6= 0 (Propriété 2.2.1 (2))
⇐⇒ ∀B ∈ B(E), detB (f ) 6= 0

7. Soit f ∈ L(E)

f ∈ GL(E) ⇐⇒ ∃f −1 ∈ GL(E), f of −1 = IdE


=⇒ det(f ) × det(f −1 ) = 1
1
=⇒ det(f −1 ) = .
det(f )

2.2.3 Déterminant d’une matrice carrée


Soit n ∈ N∗ .
D ÉFINITION 2.2.2. Soit A = (aij )1≤i,j≤n ∈ Mn (K). On appelle déterminant de A,
a11 a12 . . . a1j . . . a1n
a21 a22 . . . a2j . . . a2n
.. .. .. .. .. ..
. . . . . .
et on a det(A), ou , le scalaire défini par
ai1 ai2 . . . aij . . . ain
.. .. .. .. .. ..
. . . . . .
an1 an2 . . . anj . . . ann
det(A) = det(f ) où f est l’endomorphisme de Kn dont la matrice dans la base
canonique de Kn est A.
Il est évident de justifier le résultat suivant:
P ROPOSITION 2.2.1. Soit A = (aij )1≤i,j≤n ∈ Mn (K). Soit vj = (a1j , a2j , . . . , anj )
pour tout j ∈ [|1, n|].
Alors det(A) = detC (v1 , . . . , vn ), avec C la base canonique de Kn .

Hippolyte HOUNNON, PhD 21 FAST/UAC


2.2. DÉTERMINANT 22

R EMARQUE 2.2.2. Utilisant les notations de la proposition précédente, on a:


det(A) = detC (v1 , . . . , vn )
= detC (v1 , v2 − α1 v1 , . . . , vi − αi−1 vi−1 . . . , vn − αn−1 vn−1 )

pour tout (α1 , · · · , αn−1 ) ∈ Kn−1 .


P ROPRIÉTÉS 2.2.3. 1. det(In ) = 1
2. ∀α ∈ K, ∀A ∈ Mn (K), det(αA) = αn det(A).
3. ∀(A, B) ∈ Mn (K)2 , det(AB) = det(A)det(B).
4. ∀A ∈ Mn (K), (A ∈ GLn (K) ⇐⇒ det(A) 6= 0).
1
5. ∀A ∈ GLn (K), det(A−1 ) = .
det(A)
6. ∀A ∈ Mn (K), det(AT ) = det(A).
Preuve: Les propriétés 1. à 5. se déduisent des résultats de Propriété 2.2.1.
Prouvons la propriété 6.
Soit A = (aij )1≤i,j≤n ∈ Mn (K). Alors

det(AT ) =
P
ε(σ)a1σ(1) a2σ(2) . . . anσ(n)
σ∈S
Pn
= ε(σ)aσ−1 [σ(1)]σ(1) aσ−1 [σ(2)]σ(2) . . . aσ−1 [σ(n)]σ(n)
σ∈Sn

Comme la multiplication est commutative dans K, quitte à reordonner suivant le


second indice, on a pour toute permutation σ ∈ Sn :

aσ−1 [σ(1)]σ(1) aσ−1 [σ(2)]σ(2) . . . aσ−1 [σ(n)]σ(n) = aσ−1 (1)1 aσ−1 (2)2 . . . aσ−1 (n)n

De plus l’application: Sn → Sn , σ 7→ σ −1 est une bijection et ε(σ −1 ) = ε(σ), on


obtient: X
det(AT ) = ε(σ)aσ(1)1 aσ(2)2 . . . aσ(n)n = det(A)
σ∈Sn

E XEMPLE 2.2.3. Soit (a, b) ∈ K2 et n ≥ 2. Déterminer le déterminant de la matrice


 
a b b ··· b
 b a b ··· b 
 .. .
 
. . . . .
Ma,b =  . .  ∈ Mn (K)
. . 

b . .. a b 

b ··· b a

Hippolyte HOUNNON, PhD 22 FAST/UAC


2.3. EXERCICES 23

2.3 Exercices
Exercice 1

1 cos a cos 2a
Calculer le déterminant: 1 cos b cos 2b
1 cos c cos 2c
(On mettra le résultat en produit de facteurs.)

Exercice 2

On considère la matrice carrée d’ordre n, A = (aij )1≤i,j≤n .


1. Soit (k, l) ∈ {1, · · · , n}2 .
On considère la matrice carrée B, obtenue à partir de A, en remplaçant dans A,
la lème colonne par la k ème colonne de A sans modifier les positions des autres
cœfficients de A.
Calculer det(B) en fonction des cofacteurs ∆ij , 1 ≤ i, j ≤ n de A puis en
Pn
déduire aik ∆il .
i=1

2. Déterminer la matrice produit AT .(com(A)) puis en déduire que

(com(A))T .A = det(A)In

3. En déduire que si det()A 6= 0 alors A est inversible et A−1 = 1


det(A) (com(A))
T

Exercice 3

Soit A = (aij )1≤i,j≤n ∈ Mn (R).


1. On considère la fonction f : R → R, x 7→ det(A(x)) avec A(x) = (bij )1≤i,j≤n
et bij = aij + x, (pour tout (i, j) ∈ {1, · · · , n}2 ).
Prouver que la fonction f est une fonction polynômiale de degré inférieur ou
égal à 1 .
2. En déduire la valeur du déterminant
α a ··· a
.
b α . . . ..
.. . . . . . .
. a
b ··· α
avec a, b et α troid réels distincts.

Exercice 4

Hippolyte HOUNNON, PhD 23 FAST/UAC


2.3. EXERCICES 24

Soit (a, b, c, d) ∈ C4 .
Prouver sans développer que le déterminant suivant est nul:
a2 (a + 1)2 (a + 2)2 (a + 3)2
b2 (b + 1)2 (b + 2)2 (b + 3)2
c2 (c + 1)2 (c + 2)2 (c + 3)2
d2 (d + 1)2 (d + 2)2 (d + 3)2

Exercice 5

Soit α ∈ C et  
1 α 0... 0

0 ... ...
... 0 
 
M =
 .. ... ...
... 0 
 ∈ Mn (C)
 . 
 0 ··· 0 1 α
α 0 ··· 0 1
1. Calculer det(M )
2. Déterminer le rang de M .

Exercice 6

Calculer les déterminants d’ordre n:


1. det(|i − j|)1≤i,j≤n
2 1 0 ... 0
1 1 ... 1
1 2 1 0 ... 0
1 1 0 ... 0
. . . . . . . ... 0 1 2 1 ... 0
2. ∆1 = .. 0 3. ∆2 = .. . . ..
.. .. ... 1 0 . . 1 ... ... .
. . .. ... ...
. 2 1
1 0 ... 0 1
0 ... ... 0 1 2
1 + x2 x 0 ... 0
x 1 + x2 ...
0 ... 1 + x2 ... 0
4. ∆3 (x) = .. . . . ..
. .. .. .. .
.. . .. . . . 1 + x2
. x
0 ... ... 0 x 1 + x2

Hippolyte HOUNNON, PhD 24 FAST/UAC


Chapter 3

Réduction des endomorphismes et


des matrices

Dans ce chapitre K désigne le corps commutatif R ou le corps commutatif C.

3.1 Elément propres d’un endomorphisme


3.1.1 Valeurs propres et vecteurs propres
D ÉFINITION 3.1.1. Soit f un endomorphisme d’un IK−espace vectoriel E.
On appelle valeur propre de f tout scalaire λ ∈ IK pour lequel il existe un vecteur
u non nul tel que f (u) = λu .
Ce vecteur non nul u est appelé vecteur propre de f associé à la valeur propre λ.
N.B: Une valeur propre peut être nulle tandis qu’un vecteur propre ne peut jamais
être nul.
E XEMPLE 3.1.1. On considère un R−espace vectoriel E muni d’une base
B = (e1 , e2 , e3 ). 
 f (e1 ) = e1 − e2 − e3
Soit f l’endomorphisme de E défini par: f (e2 ) = −e1 + e2 − e3
f (e3 ) = −e1 − e2 + e3

Prouver que le vecteur u1 = e1 + e2 + e3 est un vecteur propre de f associé à une
valeur propre λ1 que l’on déterminera.

Résolution: Il est clair que u1 6= 0E .


Calculons f (u1 ).
f (u1 ) = f (e1 + e2 + e3 )
= f (e1 ) + f (e2 ) + f (e3 )
= −e1 − e2 − e3
= −(e1 + e2 + e3 )
f (u1 ) = −u1

25
3.1. ELÉMENT PROPRES D’UN ENDOMORPHISME 26

D’où u1 est bien un vecteur propre de f associé à la valeur propre λ1 = −1

E XEMPLE 3.1.2. Soit E = C ∞ (R) l’espace vectoriel des applications indéfiniment


dérivables.
Considérons l’application linéaire ϕ : E −→ E f 7−→ f 0 .
Prouver que expa : R −→ R, x 7−→ expa (x) = ax (a > 0)
est un vecteur propre de ϕ.
Solution: On sait que expa 6= 0E . De plus on a: ϕ(expa ) = (ln a) expa .
Ainsi, expa est un vecteur propre de ϕ associé à la valeur propre ln a.

3.1.2 Caractérisation des valeurs propres


P ROPOSITION 3.1.1. Soit E un IK−espace vectoriel et f ∈ L(E).
λ est valeur propre de f si, et seulement si l’endomorphisme (f − λIdE ) n’est pas
injectif (c’est-à-dire si et seulement si Ker(f − λIdE ) 6= {0E }).

Preuve: Soit λ ∈ IK.

λ est valeur propre de f ⇐⇒ ∃ u ∈ E \ {0E } et f (u) = λu


⇐⇒ ∃ u ∈ E \ {0E } et f (u) − λu = 0E
⇐⇒ ∃ u ∈ E \ {0E } et (f − λIdE )(u) = 0E
⇐⇒ ∃ u ∈ E \ {0E } et u ∈ ker(f − λIdE )
⇐⇒ ker(f − λIdE ) 6= {0E }
⇐⇒ (f − λIdE ) n’est pas injectif.

C OROLLAIRE 3.1.1. .
0 est valeur propre de f ⇐⇒ f n’est pas injectif ⇐⇒ Kerf 6= {0E }.

3.1.3 Sous-espaces vectoriels propres


D ÉFINITION 3.1.2. Soit f un endomorphisme d’un IK−espace vectoriel E et λ une
valeur propre de f .
On appelle sous-espace vectoriel propre associé à la valeur propre λ de f , que l’on
note Eλ , le sous-espace Ker(f − λIdE ).

R EMARQUE 3.1.1. 1. Tout vecteur de Eλ excepté le vecteur nul est un vecteur


propre de f associé à la valeur propre λ.
2. Si 0 est une valeur propre de f , alors E0 est égal à Kerf .

Hippolyte HOUNNON, PhD 26 FAST/UAC


3.1. ELÉMENT PROPRES D’UN ENDOMORPHISME 27

P ROPOSITION 3.1.2. Soit E un IK−espace vectoriel et f un endomorphisme de E.


Si les scalaires λ1 , λ2 , · · · , λp , (p ≥ 2) sont des valeurs propres de f deux à deux
distinctes, alors la somme des sous-espaces propres respectifs Eλ1 , Eλ2 , · · · , Eλp est
directe c’est-à-dire Eλ1 + Eλ2 + · · · + Eλp = Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλp

Démonstration:
Soit x un vecteur du sous espace vectoriel Eλ1 + Eλ2 + · · · + Eλp .
Par définition, il existe (x1 , x2 , · · · , xp ) ∈ Eλ1 × Eλ2 × · · · × Eλp tel que

x = x1 + x2 + · · · + xp (3.1)

Prouvons que cette décomposition est unique.


Appliquons f à (3.1), (p − 1) fois. On obtient alors le système:


 x = x1 + x2 + · · · + xp
= λ1 x1 + λ2 x2 + · · · + λp xp

 f (x)


f (x) = λ21 x1 + λ22 x2 + · · · + λ2p xp
2
(S)


 .
.. .
.. .
..

 f p−1 (x) = λp−1 x + λp−1 x + · · · + λp−1 x

1 1 2 2 p p

où il a été tenu compte, pour k ∈ {1; · · · ; p} de,


f (xk ) = λk xk , f 2 (xk ) = λ2k xk , · · · , f p−1 (xk ) = λkp−1 xk .
Le système (S) est un système vectoriel linéaire de p équations à p inconnues x1 , x2 , · · · , xp .
Le déterminant de (S) est
1 1 ··· 1
λ1 λ2 · · · λp
det (S) = 2 2 (déterminant de Vandermonde)
λ1 λ2 · · · λ2p
λp−1
1 λp−1
2 · · · λp−1 p

Q
= (λj − λi )
1≤i<j≤p
qui est non nul puisque les λk , 1 ≤ k ≤ p sont deux à deux distincts.
Le système est donc de CRAMER. Ainsi, il existe un unique (x1 , x2 , · · · , xp ) solu-
tion de (S); ce qui justifie l’unicité de la décomposition de (3.1).
C OROLLAIRE 3.1.2. Un système de p vecteurs propres associés à p valeurs pro-
pres λ1 , λ2 , · · · , λp deux à deux distinctes est un sytème libre.
En conséquence si B1 , B2 , · · · , Bp désignent des familles libres de vecteurs pro-
pres de Eλ1 , Eλ2 , · · · , Eλp respectifs, alors la famille obtenue par la réunion de ses
familles libres est aussi une famille libre de E.

Hippolyte HOUNNON, PhD 27 FAST/UAC


3.1. ELÉMENT PROPRES D’UN ENDOMORPHISME 28

3.1.4 Cas où E est de dimension finie


Soit E un IK−espace vectoriel de dimension n dont B = (e1 , e2 , · · · , en ) est une
base.
Soit f un endomorphisme de E de matrice A relative à la base B.
D ÉFINITION 3.1.3. On appelle valeur (respectivement vecteur) propre de A, toute
valeur (resp. tout vecteur) propre de f . L’ensemble constitué de toutes les valeurs
propres de A est appelé spectre de A et est noté Sp (A).
P ROPOSITION 3.1.3. Un scalaire λ ∈ IK est une valeur propre de A, si, et seulement
si, dét(A − λI) = 0 où I est la matrice carrée unité d’ordre n.
Preuve: Soit λ ∈ IK.

λ valeur propre de A ⇐⇒ λ est valeur propre de f


⇐⇒ l’endomorphisme (f − λIdE ) n’est pas injectif
⇐⇒ det(f − λIdE ) = 0
⇐⇒ det(A − λI) = 0

C OROLLAIRE 3.1.3. .
0 ∈ SpIK (A) ⇐⇒ detA = 0
⇐⇒ A non inversible.
On déduit alors que:
A est inversible ⇐⇒ 0 ∈
/ Sp (A)
T HÉORÈME ET D ÉFINITION 3.1.1. L’application λ 7→ det(A − λI) est une fonction
polynôme, à cœfficients dans IK, de degré n.
On peut prouver que

det(A − λI) = (−1)n λn + (−1)n−1 T r(A)λn−1 + · · · + det(A).

Ainsi le plynôme (−1)n X n +(−1)n−1 T r(A)X n−1 +· · ·+det(A) est appelé polynôme
caractéristique de A,
D ÉFINITION 3.1.4. L’équation PA (λ) = 0 s’appelle équation caractéristique as-
sociée à la matrice A.
R EMARQUE 3.1.2. SpK (A) est alors l’ensemble des solutions de l’équation carac-
téristique PA (λ) = 0.
Question: Les valeurs propres d’un endomorphisme dépendent-elles de la base
choisie?
Réponse: Soit B 0 une autre base de E et B la matrice de f dans B 0 . On a alors

Hippolyte HOUNNON, PhD 28 FAST/UAC


3.1. ELÉMENT PROPRES D’UN ENDOMORPHISME 29

B = P −1 AP où P est la matrice de passage de B à B 0 .


De plus on a:
PB (λ) = det(B − λI)
= det(P −1 AP − P −1 λIP )
= det[P −1 (A − λI)P ]
= det(P −1 ) × det(A − λI) × det(P )
= det(A − λI)
= PA (λ)
Ainsi le polynôme caractéristique est invariant par changement de base de l’espace
vectoriel.
Comme les valeurs propres d’une matrice sont les racines de son polynôme car-
actéristique, on conclut alors que les valeurs propres ne dépendent pas de la base
choisie.
On définit alors le polynôme caractéristique d’un endomorphisme f d’un espace vec-
toriel de dimension finie noté Pf par: Pf (λ) = det(M atB (f ) − λI) pour toute base
B de E.
D ÉFINITION 3.1.5. Soit f un endomorphisme d’un IK−espace vectoriel E de di-
mension finie n.
Si λ est une racine simple (resp. de multiplicité m) du polynôme caractéristique
de f , on dit que λ est valeur propre simple (resp. de multiplicité m) de f .
P ROPOSITION 3.1.4. Soit f un endomorphisme d’un IK−espace vectoriel E de di-
mension n. Si λ0 ∈ K est une valeur propre de f d’ordre de multiplicité k ∈ N∗
alors 1 ≤ dimIK (Eλ0 ) ≤ k.
En particulier, si λ0 ∈ IK est une valeur propre simple de f , alors
dimIK (Eλ0 ) = 1.
Preuve: E étant de dimension finie et Eλ0 s.e.v de E alors Eλ0 est aussi de
dimension finie. Le scalaire λ0 étant une valeur propre de f , il existe au moins
un vecteur u0 ∈ E − {0E } tel que u0 ∈ Eλ0 . Par suite dim(Eλ0 ) ≥ 1 et Eλ0 admet
une base (e1 , e2 , · · · , em ) de E que l ’on peut complèter éventuellement en une base
(e1 , e2 , · · · , em , em+1 , · · · , en ). Ainsi la matrice de f dans cette base est donnée par:
· · · 0 a1 m+1 · · · a1 n
 
λ0 0
 0 . . . . . . ... ... .. ..
. . 
 
 .. . . . .
. . . 0 am−1 m+1 · · · am−1 n 

 0 · · · 0 λ0 am m+1 · · · am n 
 
 0 · · · 0 0 am+1 m+1 · · · am+1 n 
 
. .. .. .. .. .. 
 .. . . . . . 
0 ··· 0 0 an m+1 · · · an n
avec ai,j ∈ K pour tout (i, j) ∈ {1, · · · , n} × {m + 1, · · · , n}.
D’où le polynôme caractéristique de f peut s’écrire Pf = (λ0 −X)m Q1 , Q1 ∈ K[X].

Hippolyte HOUNNON, PhD 29 FAST/UAC


3.1. ELÉMENT PROPRES D’UN ENDOMORPHISME 30

Or Pf = (λ0 − X)k Q2 avec Q2 ∈ K[X] et λ0 n ’est pas racine de Q2 . D’où


(λ0 − X)m Q1 = (λ0 − X)k Q2 et le scalaire λ0 n ’est pas racine de Q2 .
Si m > k alors le scalaire λ0 serait racine de Q2 ce qui est absurde. D’où m ≤ k; ce
qui veut dire que dim(Eλ0 ) ≤ k.
En somme on a: 1 ≤ dim(Eλ0 ) ≤ k.
Soit λ0 ∈ IK une valeur propre simple de f , alors il existe u0 ∈ Eλ0 − {0E }. D’où
dim(Eλ0 ) ≥ 1. Par suite dim(Eλ0 ) = 1 puisque 1 ≤ dim(Eλ0 ).
Exercice d’application 3.1.1. On considère l’endomorphisme f défini, dans le pre-
mier
 exemple de ce chapitre, par
 f (e1 ) = e1 − e2 − e3
f (e2 ) = −e1 + e2 − e3
f (e3 ) = −e1 − e2 + e3

1. Déterminer le polynôme caractéristique de f .


2. Déterminer les sous-espaces propres de f . (On donnera pour chacun d’eux une
base et la dimension).
3. En déduire une base de E constituée de vecteurs propres de f puis la matrice
de f dans cette base.

Hippolyte HOUNNON, PhD 30 FAST/UAC


3.2. DIAGONALISATION - TRIGONALISATION 31

3.2 Diagonalisation - Trigonalisation


3.2.1 Diagonalisation
Généralités
Soit E un IK−espace vectoriel de dimension quelconque (finie ou infinie)
D ÉFINITION 3.2.1. . • Un endomorphisme f de E est dit diagonalisable sur IK s’il
existe une base de E formée des vecteurs propres de f .
• Diagonaliser f c’est donc trouver une telle base.
Une matrice carrée A ∈ Mn (IK) est dite diagonalisable sur IK lorsqu’elle est
semblable à une matrice diagonale c’est-à-dire s’il existe une matrice inversible P
d’ordre n et une matrice diagonale D, d’ordre n, telle que D = P −1 AP .
Diagonaliser A sur IK c’est trouver D et P .

Caractérisation de la diagonalisation en dimension finie


P ROPOSITION 3.2.1. Soit E un IK-espace vectoriel de dimension finie
n ∈ IN − {0, 1} et f un endomorphisme de E. Soit:
• (λi )1≤i≤m la famille des valeurs propres distinctes deux à deux de f ,
• (Eλi )1≤i≤m la famille des sous-espaces propres associés respectivement aux valeurs
propres λi , 1 ≤ i ≤ m.
Les assertions ci-après sont équivalentes:
1. f est diagonalisable sur IK.
m
(λi − λ)ri et pour touti ∈ {1, · · · , m} dimIK (Eλi ) = ri .
Q
2. Pf (λ) =
i=1
m
P
3. dimIK (Eλi ) = dimIK (E).
i=1
m
L
4. E = Eλi .
i=1

avec r1 , r2 , · · · , rm les ordres (respectifs) de multiplicités de λ1 , λ2 , · · · , λm


Preuve en exercice.
 
1 −1 −1
E XEMPLE 3.2.1. 1. On considère la matrice A =  −1 1 −1 
−1 −1 1
La matrice A est-elle diagonalisable sur R? Si oui diagonaliser la.

Hippolyte HOUNNON, PhD 31 FAST/UAC


3.2. DIAGONALISATION - TRIGONALISATION 32

 
2 1 0
2. Soit la matrice B =  0 1 −1 
0 2 4
B est-elle diagonalisable sur R ?

Hippolyte HOUNNON, PhD 32 FAST/UAC


3.2. DIAGONALISATION - TRIGONALISATION 33

C OROLLAIRE 3.2.1. Soit E un IK−espace vectoriel de dimension finie n.


Si un endomorphisme f de E possède exactement n valeurs propres deux à deux
distinctes, alors f est diagonalisable sur IK.

3.2.2 Trigonalisation
D ÉFINITION 3.2.2. Soit E un IK−espace vectoriel de dimension finie.
Un endomorphisme f est dit trigonalisable (ou triangularisable) sur IK s’il existe
une base de E relativement à laquelle la matrice de f est triangulaire.
Trigonaliser f c’est donc trouver une telle base.
D ÉFINITION 3.2.3. (Version matricielle)
Une matrice A de Mn (IK) est trigonalisable (ou triangularisable) sur IK si elle est
semblable à une matrice triangulaire (c’est-à-dire s’il existe une matrice
P ∈ Mn (IK) inversible et une matrice triangulaire T ∈ Mn (IK) vérifiant:
T = P −1 AP .
Trigonaliser A c’est donc trouver la matrice T
Nous admettons les résultats suivants:
P ROPOSITION 3.2.2. Soit E un IK−espace vectoriel de dimension finie.
Un endomorphisme de E est dit trigonalisable si et seulement si son polynôme carac-
téristique est scindé sur IK (c’est-à-dire qu’il est factorisable en produit de facteurs
du premier degré sur IK).

P ROPRIÉTÉS 3.2.1. Toute matrice A ∈ Mn (IK) est trigonalisable sur C


 
2 1 0
E XEMPLE 3.2.2. Considérons la matrice B =  0 1 −1  de l’exemple précé-
0 2 4
dent.
La matrice B est-elle trigonalisable?
Si oui, trigonaliser la.
On a vu que PB (λ) = −(λ − 2)2 (λ − 3) (voir Exemple 3.2.1). Ainsi PB est scindé
sur R, donc B est trigonalisable sur R.
De plus, le sous-espace vectoriel propre associé à la valeur propre 2 est E2 =Vect{v}
où v = (1, 0, 0)

Hippolyte HOUNNON, PhD 33 FAST/UAC


3.2. DIAGONALISATION - TRIGONALISATION 34

Déterminons E3 . Soit X = (x, y, z) ∈ R3 .


   
x x
X ∈ E3 ⇐⇒ B  y  = 3 y 
 z z
 2x + y = 3x
⇐⇒ y − z = 3y
 2y + 4z = 3z

x=y
⇐⇒
z = −2y
⇐⇒ X = (y, y, −2y)
⇐⇒ X = y(1, 1, −2)
Ainsi E3 = Vect{w} où w = (1, 1, −2)
Par suite (v, w) est libre car v et w sont des vecteurs propres associés à des valeurs
propres distinctes.
(v, w) étant un système de vecteurs linéairement indépendants, d’après le théorème
de la base incomplète, il existe un vecteur u ∈ R3 tel que (v, w, u) soit une base de
R3 . Posons u = (a, b, c).
Comme dimR3 = 3, on a
(v, w, u) une base de R3 ⇐⇒ (v, w, u) libre
⇐⇒ detB (v, w, u) 6= 0
1 1 a
⇐⇒ 0 1 b 6= 0
0 −2 c
⇐⇒ c + 2b 6= 0.
Prenons a = c = 0 et b = 1; on a c + 2b 6= 0. Donc on peut prendre u = (0, 1, 0).
Alors f (u) = (1, 1, 2) où f est l’endomorphisme de R3 dont la matrice dans la base
canonique de R3 est B.
Exprimons à présent f (u) dans la nouvelle base (v, w, u).
Posons f (u) = αv + βw + γu avec (α, β, γ) ∈ R3 .
On trouve pour tout calcul bien effectué f (u) = 2v − w + 2u.
D’où la matrice T de f dans (v, w, u) est
 
2 0 2
T =  0 3 −1 
0 0 2
E XEMPLE 3.2.3. Soit l’endomorphisme  de R3 qui au vecteur x = (x1 , x2 , x3 ) asso-
 y1 = −2x1 − x2 + 2x3
cie le vecteur y = (y1 , y2 , y3 ) défini par y2 = −15x1 − 6x2 + 11x3
y3 = −14x1 − 6x2 + 11x3

Hippolyte HOUNNON, PhD 34 FAST/UAC


3.2. DIAGONALISATION - TRIGONALISATION 35

f est-il trigonalisable sur R?

Hippolyte HOUNNON, PhD 35 FAST/UAC


3.3. APPLICATIONS 36

3.3 Applications
3.3.1 Application aux suites récurrentes
Nous ne ferons pas de théorie générale: nous expliquons le principe sur des exem-
ples.
La donnée de - par exemple - trois scalaires u0 , v0 , w0 et de trois relations de récur-
rence: 
 un+1 = a1 un + b1 vn + c1 wn
v = a2 un + b2 vn + c2 wn ∀n ∈ N (3.2)
 n+1
wn+1 = a3 un + b3 vn + c3 wn
permet de calculer les scalaires u1 , v1 , w1 , puis les termes généraux des trois suites
(un ), (vn ), (wn ). Nous avons:
   
un+1 a1 un + b1 vn + c1 wn
(3.2) ⇐⇒  vn+1  =  a2 un + b2 vn + c2 wn  ∀n ∈ N
 wn+1   a3 un + b3 v
n+c3 wn 
un+1 a1 b1 c1 un
⇐⇒  vn+1  =  a2 b2 c2   vn  ∀n ∈ N
wn+1 a3 b3 c3 wn
Par récurrence, on obtient alors
   n  
un a1 b1 c1 u0
 vn  =  a2 b2 c2   v0  ∀n ∈ N
wn a3 b3 c3 w0
Quand on a pu calculer - par les méthodes précédentes de diagonalisation ou de
trigonalisation- la forme générale de la matrice An , on a l’expression générale des
suites.
Si l’on s’intéresse uniquement aux limites de ces trois suites quand n tend vers +∞,
on peut se contenter de diagnaliser (ou de trigonaliser) la matrice A sous la forme
A = P DP −1 , ce qui donne An = P Dn P −1 , et de calculer la limite de chacun des
coéfficients de la matrice Dn pour former une matrice D∞ et de calculer les limites
u∞ , v∞ , w∞ de ces suites par la relation:
   
u∞ u0
 v∞  = P D∞ P −1  v0  .
w∞ w0
Pour que ces limites soient finies, il faut que les valeurs propres de A soient toutes,
en module, inférieures à 1.

Hippolyte HOUNNON, PhD 36 FAST/UAC


3.3. APPLICATIONS 37

E XEMPLE 3.3.1. Déterminer les trois suites réelles définies par


u0 = 5, v0 = −3, w0 = 2 et les relations de récurrence:

 un+1 = un − vn − wn
v = −un + vn − wn
 n+1
wn+1 = −un − vn + wn

E XEMPLE 3.3.2. Etudions la convergence des deux suites réelles définies par la don-
née de u0 , et v0 quelconque et les deux relations:
1 1 1 5
un+1 = un + vn ; vn+1 = − un + vn
6 3 3 6

Hippolyte HOUNNON, PhD 37 FAST/UAC


3.3. APPLICATIONS 38

3.3.2 Application aux systèmes différentiels


Nous ne regardons ici que les systèmes différentiels linéaires du premier ordre sans
second membre.
Il s’agit de trouver n fonctions x1 , x2 , · · · , xn de classe C 1 - et en fait de classe C ∞ -
vérifiant des relations du type:


 x01 (t) = a11 x1 (t) + a12 x2 (t) + · · · + a1n xn (t)
 x0 (t) = a x (t) + a x (t) + · · · + a x (t)

2 21 1 22 2 2n n
.
.. .
..

 ···
 x0 (t) = a x (t) + a x (t) + · · · + a x (t)

n n1 n n2 2 nn n

où les aij sont des réels ou des complexes.


En notantA la matrice
 carrée d’ordre n défini par (aij )1≤i,j≤n , et en notant
x1 (t)
 x (t) 
 2
X(t) =  .. ,

 . 
xn (t)
le système différentiel s’écrit: X 0 (t) = AX(t).
L’idée est de regarder, encore une fois, si la matrice A est diagonalisable ou trigonal-
isable sur R ou C. Nous ne regardons que ces deux cas de figure.

Cas où A est diagonalisable


Il existe une matrice inversible P et une matrice diagonale:
 
λ1 0 0 · · · 0
 0 λ 0 ··· 0 
 2 
 .. . . . . . .. .
.. 
D= . . . 
 
 0 0 0 λn−1 0 
0 0 0 0 λn

telle que A = P DP −1 , ce qui permet d’écrire le système sous la forme:

X 0 (t) = P DP −1 X(t) ⇔ (P −1 X 0 (t)) = D(P −1 X(t)).

En posant U (t) = P −1 X(t), nous obtenons le système différentiel:

U 0 (t) = DU (t)
qui se ramène simplement aux équations différentielles:

u01 (t) = λ1 u1 (t), u02 (t) = λ2 u2 (t), · · · , u0n (t) = λn un (t)

Hippolyte HOUNNON, PhD 38 FAST/UAC


3.3. APPLICATIONS 39

dont les solutions sont:

u1 = A1 eλ1 t , u2 = A2 eλ2 t , · · · , un = An eλn t

où les A1 , A2 , · · · , An sont des constantes.


Les solutions du système initial s’obtiennent donc en calculant:
   
x1 (t) A1 eλ1 t
 x (t)   A eλ2 t 
 2  2
 ..  = P × 
 
.. 
 .   . 
λn t
xn (t) An e

Il n’y a donc surtout pas lieu de calculer, pour une fois, la matrice P −1 .
En notant V1 , V2 , · · · , Vn les vecteurs propres que l’on a trouvé en diagonalisant (ce
sont donc les colonnes de la matrice), on obtient la solution sous forme vectorielle:
 
x1 (t)
 x (t) 
 2
X(t) =  ..  = A1 eλ1 t V1 + A2 eλ2 t V2 + · · · + An eλn t Vn

 . 
xn (t)

où les A1 , A2 , · · · , An sont des constantes. On peut donc dire que l’ensemble des
solutions du système différentiel est un espace vectoriel de dimension n dont une
base est (eλ1 t V1 , eλ2 t V2 , · · · , eλn t Vn ).
E XEMPLE 3.3.3. Résoudre le système différentiel:
 0
 x (t)= x − 3y + 3z
y 0 (t)=3x − 5y + 3z
 0
z (t)=6x − 6y + 4z
 
1 −3 3
La diagonalisation de la matrice A =  3 −5 3  est laisée en exercice.
6 −6 4
Nous obtenons:
   
−2 0 0 1 0 1
D =  0 −2 0  et P =  1 1 1  .
0 0 4 0 1 2
A partir des trois valeurs propres −2, − 2, 4, nous formons les trois applications
définies par:
u(t) = αe−2t , v(t) = βe−2t , w(t) = γe4t

Hippolyte HOUNNON, PhD 39 FAST/UAC


3.3. APPLICATIONS 40

et nous calculons finalement


       
x(t) 1 0 1
−2t −2t
 y(t)  = αe  1  + βe  1  + γe  1 4t

z(t) 0 1 2
αe−2t + γe4t
 

=  (α + β)e−2t + γe4t 
βe−2t + 2γe4t
où α, β, γ sont des constantes que l’on peut calculer si l’on a des données ini-
tiales concernant les fonctions. il faut trois conditions, par exemple les valeurs de
x(0), y(0), et z(0).

Cas où A est seulement trigonalisable


Les calculs sont légèrement plus compliqués, même si le principe reste le même. Si
T est une matrice triangulaire et P une matrice de passage telles que A = P T P −1 ,
nous ramenons au système différentiel:

(P −1 X 0 (t)) = T (P −1 X(t))

qui est plus pénible à résoudre. Regardons un exemple, ce qui sera plus parlant.
E XEMPLE 3.3.4. Résoudre le système différentiel:
 0
 x (t)= −3x + y − z
y 0 (t)= −7x + 5y − z
 0
z (t)=−6x + 6y − 2z
 
−3 1 −1
La matrice A =  −7 5 −1  est seulement trigonalisable sous la forme
−6 6 −2
   
4 0 0 0 1 0
A = P T P −1 avec T =  0 −2 1  et P =  1 1 0 
0 0 −2 1 0 −1
 0   
u (t) u(t)
Nous devons alors résoudre le système différentiel  v 0 (t)  = T  v(t) , à
w0 (t) w(t)
savoir:
u0 (t) = 4u(t), v 0 (t) = −2v(t) + w(t), w0 (t) = −2w(t)
dont seulement la première et la dernière équation sont évidentes à résoudre. Il faut
commencer par elles, pour pouvoir ensuite résoudre celle en v(t). Nous obtenons:

u(t) = αe4t , et w(t) = γe−2t

Hippolyte HOUNNON, PhD 40 FAST/UAC


3.4. SOUS-ESPACES STABLES PAR UN ENDOMORPHISME 41

L’équation différentielle v 0 (t) = −2v(t) + w(t) = −2v(t) + γe−2t demande plus de


travail, car elle contient un second membre. On la résout comme d’habitude en deux
étapes:
• Equation homogène: v 0 (t) = −2v(t) qui nous donne v(t) = βe−2t où β est une
constante.
• Variation de la constante: on cherche la solution complète en considérant que β
est une fonction de t. Nous avons donc v 0 (t) = β 0 (t)e−2t − 2β(t)e−2t . En reportant
dans l’équation, il vient β 0 (t) = γ, et donc β(t) = γt + k où k est une constante
réelle. Il en découle que v(t) = (γt + k)e−2t .
La solution du système initial s’obtient finalement en éffectuant le produit:
αe4t (γt + k)e−2t
      
x(t) 0 1 0
 y(t)  =  1 1 0   (γt + k)e−2t  =  αe4t + (γt + k)e−2t 
z(t) 1 0 −1 γe−2t αe4t − γe−2t
où α, γ et k sont des constantes que l’on détermine avec les données initiales.

3.4 Sous-espaces stables par un endomorphisme


Dans ce paragraphe, K désigne R ou C, et E est un K-espace vectoriel.
D ÉFINITION 3.4.1. Soit U ∈ L(E).
On dit qu’un s.e.v F de E est stable par U lorsque U (F ) ⊂ F .
R EMARQUE 3.4.1. Si F est un s.e.v stable par U ∈ L(E) alors U|F ∈ L(F ) et l’on
appelle endomorphisme induit par U sur F .
T HÉORÈME 3.4.1. Soit U et V deux endomorphismes qui commutent
(c’est-à-dire U ◦ V = V ◦ U ) alors les s.e.v ImU et kerU sont stables par V .
Preuve: Prouvons que V (kerU ) ⊂ kerU et V (ImU ) ⊂ ImU .
Soit x ∈ kerU . On a

U [V (x)] = (U ◦ V )(x)
= (V ◦ U )(x)
= V [U (x)]
= V (0E ) (car x ∈ kerU ⇒ U (x) = 0E )
= 0E

d’où V (x) ∈ kerU


Soit y ∈ ImU . Alors il existe x ∈ E et y = U (x). Ainsi

Hippolyte HOUNNON, PhD 41 FAST/UAC


3.4. SOUS-ESPACES STABLES PAR UN ENDOMORPHISME 42

V (y) = V [U (x)]
= (V ◦ U )(x)
= (U ◦ V )(x)
= U [V (x)]

d’où V (y) ∈ ImU . Par suite, on a V (ImU ) ⊂ ImU .


On conclut que ImU et kerU sont stables par V
C OROLLAIRE 3.4.1. Soit U ∈ L(E). Alors ImU et kerU sont stables par U .
On suppose ici que dimK E = n ∈ N∗ et F est un s.e.v de E non réduit au vecteur
nul.
Soit BF = (e1 , e2 , · · · , ep ) une base de F et B = (e1 , e2 , · · · , ep , ep+1 , · · · , en ) une
base de E (théorème de base incomplète). Alors B est qualifiée de base adaptée à F .

T HÉORÈME 3.4.2. Soit B = (e1 , e2 , · · · , ep , ep+1 , · · · , en ) une base de E adaptée à


un s.e.v F de E avec (e1 , e2 , · · · , ep ) une base de F . Soit U ∈ L(E) . Les assertions
suivantes sont équivalentes:
1. F est stable par U .
2. Pour tout k ∈ db1, pec, U (ek ) ∈ F .
3. La matrice de U dans la base B est de la forme
 
M N
0 P

avec M ∈ Mp (K), N ∈ Mp,n−p (K), 0 = 0n−p,p et P ∈ Mn−p (K,

Dans ce cas M est la matrice de U/F dans la base (e1 , e2 , · · · , ep )


Preuve:

Hippolyte HOUNNON, PhD 42 FAST/UAC


3.4. SOUS-ESPACES STABLES PAR UN ENDOMORPHISME 43

T HÉORÈME 3.4.3. Soit B = (e1 , e2 , · · · , en ) une base de E et U ∈ L(E), la matrice


de U relative à la base B est triangulaire supérieure si et seulement si:

∀ j ∈ db1, nec, U (ej ) ∈ vect(e1 , e2 , · · · , ej )

Preuve:(bon exercice de maison)


p
L
T HÉORÈME 3.4.4. On suppose que E = Ei
i=1
Soit U ∈ L(E) et (B1 , B2 , · · · , Bp ) une base de E adaptée à la somme directe.
Pour tout i ∈ db1, pec, notons ki = dimK Ei .
Alors les s.e.v Ei sont stables par U , pour tout i ∈ db1, pec si et seulement si il existe
p matrices Mi , Mi ∈ Mki (K) (pour tout i ∈ db1, pec) telle que la matrice de U dans
la base (B1 , B2 , · · · , Bp ) soit de forme
 
M1 0 0 ··· 0
 0 M ... .. 
 2 . 
 .. . . . . . .
. . . ... 

 .
 . ... ... 0 
 .. 
0 · · · · · · 0 Mp

Dans ce cas, pour tout i ∈ db1, pec, la matrice Mi est la matrice de la restriction de
U à Ei . Preuve en exercice.
C OROLLAIRE 3.4.2. Soit B = (e1 , e2 , · · · , en ) une base de E et U ∈ L(E), la ma-
trice de U relative à B est diagonale si et seulement si chaque s.e.v Ei = vect(ei ) est
stable par U (c’est-à-dire l’endomorphisme induit par U sur Ei est une homothétie
vectorielle).
Preuve:

Hippolyte HOUNNON, PhD 43 FAST/UAC


3.5. POLYNÔME D’ENDOMORPHISMES ET POLYNÔME DE MATRICES 44

3.5 Polynôme d’endomorphismes et Polynôme de matrices


On suppose ici que E 6= {0E } et soit U ∈ L(E) − {OE E }.
On rappelle que U 0 = IdE , U n+1 = U n ◦ U = U ◦ U n .
n
ai X i , on définit
P
Si P ∈ K[X] s’écrit P =
i=0

n
X
P (U ) = ai U i
i=0

Alors P (U ) ∈ L(E) car L(E) est K−e.v et les U i ∈ L(E) (i = 0, 1 · · · , n)


On peut prouver que:
T HÉORÈME 3.5.1.
L’application ψU : K[X] −→ L(E)
P 7−→ P (U )
est un morphisme d’anneaux et d’espaces vectoriels.
C OROLLAIRE 3.5.1. kerψU est un idéal de K[X] (donc un idéal principal).
Les éléments de kerψU sont appelés annulateurs de U ,
c’est-à-dire les P ∈ K[X] tels que P (U ) = 0E E .
On définit un annulateur d’une matrice de manière analogue.
T HÉORÈME 3.5.2. (de Cayley-Hamilton)
Soit f un endomorphisme d’un K− espace vectoriel de dimension finie non nulle.
Alors le polynôme caractéristique Pf de f est un annulateur de f .
Preuve: (admise)
E XEMPLE 3.5.1. Soit f l’endomorphisme de R3 dont la matrice relative à une base
quelconque est  
−3 1 −1
A =  −7 5 −1 
−6 6 −2
Vérifions le théorème de Cayley pour cet endomorphisme.

Hippolyte HOUNNON, PhD 44 FAST/UAC


3.5. POLYNÔME D’ENDOMORPHISMES ET POLYNÔME DE MATRICES 45

Lorsque le kerψ(U ) 6= {0K[X] }, il existe un polynôme unitaire ΠU tel que


kerψU = ΠU K[X]. Le polynôme ΠU est appelé le polynôme minimal de U
Nous admettons le résultat suivant:
T HÉORÈME 3.5.3. Tout endomorphisme d’un espace vectoriel de dimension finie
possède un polynôme minimal, c’est-à-dire
∃ ΠU ∈ K[X], {P ∈ K[X], P (U ) = OE E } = ΠU K[X]

C OROLLAIRE 3.5.2. Le polynôme minimal d’un endomorphisme U d’un espace vec-


toriel de dimension finie est le pgcd des polynômes annulateurs de U .
E XEMPLE 3.5.2. Soit λ ∈ R et U = λIdE
Soit P = X − λ comme U − λIdE = λIdE − λIdE = 0
Ainsi P = X − λ est un annulateur de U
De plus P est de degré minimal.
Par conséquent P = X − λ est le polynôme minimale de U = λIdE .
Soit U ∈ L(R2 ) tel que U 2 = −IdR2 .
Le polynôme X 2 + 1 est annulateur de U .
Il est de degré minimal car X + i et X − i ne sont pas annulateurs de U . Par
conséquent le polynôme minimal de U est X 2 + 1.
Nous admettons le résultat.
T HÉORÈME 3.5.4. Soit U un endomorphisme d’un K-espace vectoriel de dimension
finie non nulle. Les assertions suivantes sont équivalentes:
1. U est diagonalisable sur K.
2. Le polynôme minimal de U est scindé sur K et n’a que de racines simples.
Q
3. U annule le polynôme (X − λ).
λ∈SpK U

On en déduit que
C OROLLAIRE 3.5.3. Si le polynôme caractéristique d’une matrice carrée A est
q
PA = (λ − λi )ni et si A est diagonalisable sur K alors le polynôme minimal de A
Q
i=1
q
Q
est (λ − λi ).
i=1
Exercice d’application 3.5.1. On considère la matrice
 
2 6 −3 −3
 0 5 0 −6 
A=  0 9 −1 −9 

0 3 0 −4

Hippolyte HOUNNON, PhD 45 FAST/UAC


3.5. POLYNÔME D’ENDOMORPHISMES ET POLYNÔME DE MATRICES 46

1. Déterminer les valeurs propres de A.


2. La matrice A est-elle diagonalisable sur R?
3. Déterminer le polynôme minimal de A.
4. En déduire que A est inversible et déterminer l’inverse A−1 .

Hippolyte HOUNNON, PhD 46 FAST/UAC


3.6. EXERCICES 47

3.6 Exercices
Exercice 1

Soit m un réel et fm l’endomorphisme de R3 dont la matrice dans la base canonique


est  
1 0 1
Am =  −1 2 1 
2−m m−2 m
1. Quelles sont les valeurs propres de fm ?
2. Pour quelles valeurs de m l’endomorphisme est-il diagonalisable sur R?
3. On suppose m = 2. Calculer Akm pour tout k ∈ N.

Exercice 2

Soit f l’endomorphisme de R3 dont la matrice dans la base canonique est


 
1 1 −1
A=1 1 1 
1 1 1
Trouver les sous espaces stables par f

Exercice 3

On considèrel’endomorphisme
 f dont la matrice dans la base canonique de R3 est
1 1 3
donnée A =  1 1 1
−2 2 4
1. L’endomorphisme f est-il diagonalisable sur R? Justifier votre réponse.’
2. L’endomorphisme f est-il trigonalisable sur R? si oui trigonaliser la.
3. Déterminer les sous-espaces de R3 stables par f .

Exercice 4

Discuter selon les valeurs des paramètres réels b et c, la diagonalisation sur R la


matrice  
b+1 b−3 −1
Ma,b =  −b 2−b 0 
2b −4 + 2b + 2c c
Exercice 5

Hippolyte HOUNNON, PhD 47 FAST/UAC


3.6. EXERCICES 48

On considère l’endomorphisme f de R3 dont la matrice dans la base canonique est


donnée par:  
1 0 1
A =  −1 2 1 
1 −1 1

1. Déterminer le polynôme caractéristique de f et ses racines.


2. La division euclidienne de X n (n ≥ 3) par le polynôme caractéristique P de f
peut sécrire: X n = P Q + aX 2 + bX + c où Q est un polynôme et a, b, c trois
réels. Déterminer a, b, c en donnant à X les valeurs propres de f . (On pourra
dériver l’expression)
3. Soit n ∈ N. Déterminer An à l’aide du théorème de Cayley-Hamilton.

Exercice 6

Soient f et g deux endomorphismes d’un K-espace vectoriel E de dimension finie


n, ayant chacun n valeurs propres distinctes dans K.
Démontrer que f og = gof si et seulement si f et g ont les mêmes valeurs propres.
Exercice 7
Soient f et g deux endomorphismes d’un K-espace vectoriel E de dimension finie,
tels que f og = gof .
1. Démontrer que tout sous-espace propres de f est stable par g.
2. Démontrer, par récurrence sur n = dim(E), qu’il existe un vecteur propre v
commun à f et à g.

Exercice 8

Soit m ∈ R et Am ∈ M3 (R) la matrice suivante


 
−1 0 m + 1
Am =  1 −2 0 
−1 1 m
1. Factoriser le polynôme caractéristique PAm en produit de facteurs du premier
degré.
2. Déterminer selon la valeur du paramètre m les valeurs propres distinctes de Am
et leur multiplicité.
3. Déterminer les valeurs de m pour lesquelles la matrice Am est diagonalisable
sur R et déterminer suivant les valeurs de m le polynôme minimal de Am .

Hippolyte HOUNNON, PhD 48 FAST/UAC


3.6. EXERCICES 49

4. On suppose ici que m = 0


On note A = A0 et f l’endomorphisme de R3 associé à la matrice A. Démontrer
qu’il existe une base de R3 dans laquelle la matrice de f est
 
−1 1 0
B =  0 −1 1 
0 0 −1

et trouver la matrice P de passage de la base canonique de R3 à cette base.

Hippolyte HOUNNON, PhD 49 FAST/UAC


Chapter 4

Formes quadratiques

Dans ce chapitre K désigne le corps commutatif R ou C.

4.1 F ORMES BILINÉAIRES : R APPELS ET COMPLÉMENTS


4.1.1 Généralités
D ÉFINITION 4.1.1. Soit E et F deux K-espaces vectoriel. L’application
ϕ : E × E −→ F
(x, y) 7−→ ϕ(x, y)

est qualifiée d’application bilinéaire lorsque pour tout ((x, y, z), λ) ∈ E 3 × K, on a:


ϕ(λx + y, z) = λϕ(x, z) + ϕ(y, z) et ϕ(x, λy + z) = λϕ(x, y) + ϕ(x, z)
L’ensemble L2 (E, F ) des applications bilinéaires de E × E dans F est un sous-
2
espace vectoriel de l’ensemble F E des applications de E 2 dans F .
Soit ϕ ∈ L2 (E, F ). Pour x ∈ E, ϕ(x, 0E ) = ϕ(0E , x) = 0F .

D ÉFINITION 4.1.2. Une forme bilinéaire sur un K-espace vectoriel E est une ap-
plication bilinéaire de E × E à valeur dans K.
L’ensemble des formes bilinéaires sur le K-espace vectoriel E est alors
L2 (E, K).
E XEMPLE 4.1.1. 1. ϕ1 : R3 × R3 −→ R définie pour x = (x1 , x2 , x3 ) et
3
xi yi est une forme bilinéaire sur R3 .
P
y = (y1 , y2 , y3 ) par ϕ(x, y) =
i=1

2. ϕ2 : R4 × R4 −→ R définie pour x = (x1 , x2 , x3 , x4 ) et y = (y1 , y2 , y3 , y4 )


3
xi yi − c2 x4 y4 où c ∈ R est une forme bilinéaire sur R4 (qui
P
par ϕ(x, y) =
i=1
intervient dans la relativité et est nommée forme de Lorentz).

50
4.1. FORMES BILINÉAIRES: RAPPELS ET COMPLÉMENTS 51

3. Sur le R-espace vectoriel C([0; 1], R) des applications continues de [0; 1] dans
R, l’application

ϕ3 : (C([0; 1], R))2 −→ R


R1
(f, g) 7−→ 0 f (t)g(t)dt
est une forme bilinéaire. Ce résultat découle des propriétés de linéarité de
l’intégrale.
4. Sur le K-espace vectoriel Mn (K), l’application

ϕ4 : (Mn (K))2 −→ K
(A, B) 7−→ T r(AT B)
est une forme bilinéaire.
En effet soit (A, B, C) ∈ (Mn (K))3 et α ∈ K

ϕ4 (αA + B, C) = T r((αA + B)T C)


= T r[(αAT + B T )C]
= T r(αAT C + B T C)
= αT r(AT C) + T r(B T C) car Tr est linéaire
= αϕ4 (A, C) + ϕ4 (B, C)

De même on a: ϕ4 (A, αB + C) = αϕ4 (A, B) + ϕ4 (A, C)

4.1.2 Matrice d’une forme bilinéaire


Comme les applications linéaires, il est possible de représenter les formes bilinéaires
par des matrices.
Soit E un K-espace vectoriel de dimension finie muni d’une base B = (e1 , · · · , en )
et ϕ ∈ L2 (E, K).
Pn n
P
Soit x = xi ei ∈ E et y = yj ej ∈ E.
i=1 j=1
Utilisant la bilinérarité de ϕ on a:
n X
X n
ϕ(x, y) = xi yj ϕ(ei , ej ) (4.1)
i=1 j=1

Cela signifie que la connaissance des valeurs ϕ(ei , ej ) pour tout 1 ≤ i, j ≤ n permet
d’évaluer pour tout (x, y) ∈ E 2 , ϕ(x, y) dès que x et y sont écrits dans la base B.
Ainsi une forme bilinéaire est déterminée par les valeurs aij = ϕ(ei , ej ),
1 ≤ i, j ≤ n qu’elle prend dans une base donnée de E.

Hippolyte HOUNNON, PhD 51 FAST/UAC


4.1. FORMES BILINÉAIRES: RAPPELS ET COMPLÉMENTS 52

D ÉFINITION 4.1.3. On appelle matrice de ϕ ∈ L2 (E, K) par rapport à la base


B = (e1 , · · · , en ) du K-espace vectoriel E, la matrice carrée à coefficients dans K
et d’ordre n,  notée M atB (ϕ), et définie par: 
ϕ(e1 , e1 ) ϕ(e1 , e2 ) · · · ϕ(e1 , en )
 ϕ(e , e ) ϕ(e , e ) · · · ϕ(e , e ) 
2 1 2 2 2 n 
M atB (ϕ) =   = (ϕ(ei , ej ))1≤i,j≤n .

.. .. ..
 . . ··· . 
ϕ(en , e1 ) ϕ(en , e2 ) · · · ϕ(en , en )
On dit que la  M atB (ϕ)
matrice  représente
 ϕ dans la base B.
x1 y1
 ..   .. 
En posant X =  .  , Y =  .  et A = M atB (ϕ)
xn yn
n X
X n
ϕ(x, y) = xi yi ϕ(ei , ej ) ⇐⇒ (ϕ(x, y)) = X T AY (4.2)
i=1 j=1

R EMARQUE 4.1.1. 1. Inversement, toute matrice Mn (K) définie une forme bil-
inéaire via la formule (4.2)
2. L’application
Φ : L2 (E, K) −→ Mn (K)
ϕ 7−→ M atB (ϕ)
est un isomorphisme d’espaces vectoriels (à prouver).

Ainsi, comme Mn (K) est de dimension finie n2 , alors L2 (E, K) est aussi de di-
mension finie et dimK (L2 (E, K)) = n2 .
E XEMPLE 4.1.2. Déterminer les matrices par rapport à la base canonique Bn de Rn
des formes bilinéaires ϕ1 et ϕ2 définies dans l’exemple 4.1.1

R ÉPONSE:  
  1 0 0 0
1 0 0 0 1 0 0 
M atB3 (ϕ1 ) =  0 1 0  et M atB4 (ϕ2 ) = 
0
.
0 1 0 
0 0 1
0 0 0 −c2
C OMMENTAIRE: On fera attention de ne pas confondre ces deux notions (en-
domorphisme de E et forme bilinéaire sur E) même si toutes deux peuvent être
représentées par le même objet mathématique qui est matrice.
P ROPOSITION 4.1.1. Soit B et B 0 deux bases d’un espace vectoriel E de dimension
finie et P la matrice de passage de B à B 0 .

Hippolyte HOUNNON, PhD 52 FAST/UAC


4.1. FORMES BILINÉAIRES: RAPPELS ET COMPLÉMENTS 53

Soit ϕ ∈ L2 (E, K) de matrice M dans la base B et M 0 dans la base B 0 . Alors


M0 = P T MP

Démonstration: Soit B = (e1 , · · · , en ) et B0 = (e01 , · · · , e0n ) deux bases de E.


Alors M = (ϕ(ei , ej ))1≤i,j≤n et M 0 = ϕ(e0i , e0j ) 1≤i,j≤n .
n
0
P
En posant ej = pij ei pour tout j ∈ db1, nec, on a P = (pij )1≤i,j≤n
i=1
D’où pour tout (i, j) ∈ db1, nec × db1, nec

n X
X n
ϕ(e0i , e0j ) = pki plj ϕ(ek , el )
k=1 l=1
 n

P
Or M P = ϕ(ei , el )plj .
l=1 1≤i,j≤n
En posant M P = (cij )1≤i,j≤n et P T M P = (dij )1≤i,j≤n , on a pour tout
(i, j) ∈ db1, nec × db1, nec
n
X
dij = pki ckj
k=1
n n
!
X X
= pki ϕ(ek , el )plj
k l=1
n
XXn
= (pki plj ϕ(ek , el ))
k l=1
0 0
= ϕ(ei , ej )
D’où M 0 = P T M P

R EMARQUE 4.1.2. On prouve que rg(M ) = rg(P T M P )

On peut alors définir:


D ÉFINITION 4.1.4. Soit ϕ ∈ L2 (E, K) avec E un K-espace vectoriel de dimension
finie muni d’une base B. On appelle rang de ϕ le rang de M atB (ϕ).
E XEMPLE 4.1.3. Déterminons
  de la forme bilinéaire ϕ2 de l’exemple 4.1.1..
le rang
1 0 0 0
0 1 0 0 
 0 0 1 0 . D’où le rang de ϕ2 est 4 car c 6= 0.
On a M atB (ϕ2 ) =  

0 0 0 −c2

Hippolyte HOUNNON, PhD 53 FAST/UAC


4.1. FORMES BILINÉAIRES: RAPPELS ET COMPLÉMENTS 54

4.1.3 Formes bilinéaires symétriques


D ÉFINITION 4.1.5. Soit ϕ une forme bilinéaire sur un K-espace vectoriel E.
• ϕ est dite symétrique si pour tout (x, y) ∈ E 2 , ϕ(x, y) = ϕ(y, x)
• ϕ est dite antisymétrique si pour tout (x, y) ∈ E 2 , ϕ(x, y) = −ϕ(y, x)
E XEMPLE 4.1.4. 1. On vérifie facilement que ϕ1 de l’exemple 4.1.1 est symétrique
2. La forme bilinéaire
ϕ : (M(K))2 −→ K
(A, B) 7−→ T r(AT B)
est symétrique. En effet
ϕ(B, A) = T r(B T A) = T r((B T A)T ) = T r(AT B) = ϕ(A, B).
P ROPOSITION 4.1.2. Soit E un K-espace vectoriel de dimension finie et B une base
de E. Une forme bilinéaire sur E est symétrique (resp. antisymétrique) si et seule-
ment sa matrice M atB (ϕ) est symétrique (resp.antisymétrique).
P REUVE: En exercice.

Soit Sn (K) ensemble des matrices carrées d’ordre n symétriques


An (K) ennsemble des matrices carrées d’ordre n antisymétriques.
On peut prouver facilement que Sn (K) et An (K) sont des sous-espaces vectoriels de
Mn (K) et Sn (K) ⊕ An (K) = Mn (K)
en remarquant que
1 1
∀M ∈ Mn (K) M = (M + M T ) + (M − M T )
|2 {z } |2 {z }
∈ Sn (K) ∈ An (K)
De plus
1
dimK (Sn (K)) = n(n + 1)
2
1
dimK (An (K)) = n(n − 1)
2
P ROPOSITION 4.1.3. Soit E un K-espace vectoriel.
• L’ensemble Ls2 (E, K) des formes bilinéaires symétriques et La2 (E, K) celui des
formes bilinéaires antisymétriques sont des sous-espace vectoriel supplémentaires
dans L2 (E, K), c-est-à-dire

Ls2 (E, K) ⊕ La2 (E, K) = L2 (E, K)

Hippolyte HOUNNON, PhD 54 FAST/UAC


4.1. FORMES BILINÉAIRES: RAPPELS ET COMPLÉMENTS 55

• En particulier si dimK E = n ∈ N∗ On a:
1
dimK (Ls2 (E, K)) = n(n + 1)
2
1
dimK (La2 (E, K)) = n(n − 1)
2
Preuve: On sait que 0KE ∈ Ls2 (E, K) et Ls2 (E, K) ⊂ L2 (E, K)
Soit ϕ et ψ deux éléments de Ls2 (E, K) et α, ∈ K. Alors (αϕ + ψ) ∈ L2 (E, K) et
pour tout (x, y) ∈ E,

(αϕ + ψ)(x, y) = αϕ(x, y) + ψ(x, y)


= αϕ(y, x) + ψ(y, x)
= (αϕ + ψ)(y, x)

D’où (αϕ + ψ) ∈ Ls2 (E, K).


De manière analogue on prouve que La2 (E, K) est un sous-espace vectoriel de L2 (E, K).
Soit ϕ ∈ L2 (E, K). Alors pour tout (x, y) ∈ E 2 on a:
ϕ(x, y) = 21 [ϕ(x, y) + ϕ(y, x)] + 12 [ϕ(x, y) − ϕ(y, x)]
Soit
ϕs : E 2 −→ K ϕa : E 2 −→ K
et
(x, y) 7−→ 21 [ϕ(x, y) + ϕ(y, x)] (x, y) 7−→ 21 [ϕ(x, y) − ϕ(y, x)]

On prouve que ϕs ∈ Ls2 (E, K) et ϕa ∈ La2 (E, K) ainsi ϕ = ϕs + ϕa


Prouvons que cette décomposition est unique.
Soit ϕ ∈ L2 (E, K). supposons qu’il existe ϕs ∈ Ls2 (E, K) et ϕa ∈ La2 (E, K) telle
que ϕ = ϕs + ϕa .
Alors
 pour tout (x, y) ∈ E 2 , on a
ϕ(x, y) = ϕs (x, y) + ϕa (x, y)
ϕ(y, x) = ϕs (y, x) + ϕa (y, x) = ϕs (x, y) − ϕa (x, y)
D’où pour tout (x, y) ∈ E 2

ϕs (x, y) = 21 (ϕ(x, y) + ϕ(y, x))




ϕa (y, x) = 21 (ϕ(x, y) − ϕ(y, x))


Ce qui justifie l’unicité de la décomposition.
En somme Ls2 (E, K) ⊕ La2 (E, K) = L2 (E, K)
Si dimK E = n ∈ N∗ , alors le reste de la preuve s’obtient en utilisant
Sn (K) ' Ls2 (E, K) et An (K) ' La2 (E, K)

Hippolyte HOUNNON, PhD 55 FAST/UAC


4.2. FORMES QUADRATIQUES 56

4.2 F ORMES QUADRATIQUES


4.2.1 Généralités
D ÉFINITION 4.2.1. Une application q d’un K-espace vectoriel E dans K est appélée
forme quadratique sur E lorsqu’il existe une forme bilinéaire ϕ sur E telle que :

∀ x ∈ E, q(x) = ϕ(x, x).

P ROPOSITION 4.2.1. (Formule de polarisation)


Soit E un K-espace vectoriel. Pour toute forme quadratique q sur E il existe une
unique forme bilinéaire symétrique ϕ0 appélée forme polaire de q pour laquelle on
a q(x) = ϕ0 (x, x) pour tout x ∈ E.
Cette forme est définie par:
ϕ0 : E 2 −→ K
1 1
(x, y) 7−→ [q(x + y) − q(x) − q(y)] = [q(x + y) − q(x − y)]
2
| {z } 4
| {z }
1ère formule de polarisation 2ème formule de polarisation

Preuve: Existence:
Par définition de q, il existe ϕ ∈ L2 (E, K) telle que
q(x) = ϕ(x, x) pour tout x ∈ E. D’où
q(x) = ϕ(x, x) = ϕs (x, x) + ϕa (x, x) avec ϕs ∈ Ls2 (E, K) et ϕa ∈ La2 (E, K) alors
q(x) = ϕs (x, x) car ϕa (x, x) = 0. On choisit ϕ0 = ϕs
Unicité:
Soit ψ ∈ Ls2 (E, K) telle que q(x) = ψ(x, x) pour tout x ∈ E.
Soit (x, y) ∈ E. On a:

q(x + y) = ψ(x + y, x + y)
= ψ(x, x) + 2ψ(x, y) + ψ(y, y) car ψ ∈ Ls2 (E, K)
q(x + y) = q(x) + 2ψ(x, y) + q(y) (∗)
1
Ainsi ψ(x, y) = (q(x + y) − q(x) − q(y)). (Ce qui correspond à la formule de
2
polarisation) ceci justifie l’unicité de ψ
2ème Formule de polarisation
La substitution de y à −y dans (∗) donne:

q(x − y) = q(x) + 2ψ(x, −y) + q(−y)



q(−y) = ψ(−y, −y) = ψ(y, y) = q(y)
or
ψ(x, −y) = −ψ(x, y)

q(x + y) = q(x) + 2ψ(x, y) + q(y)
donc .
q(x − y) = q(x) − 2ψ(x, y) + q(y)

Hippolyte HOUNNON, PhD 56 FAST/UAC


4.2. FORMES QUADRATIQUES 57

Ainsi ψ(x, y) = 41 [q(x + y) − q(x − y)]

3
1. L’application, q : R3 −→ R, (x1 , x2 , x3 ) 7→ x2i ,
P
E XEMPLE 4.2.1.
i=1
3
est une forme quadratique sur R . Elle est construite à partir de la forme
bilinéaire symétrique
ϕ : (R3 )2 −→ R
3
P
(x, y) 7−→ x i yi
i=1

avec x = (x1 , x2 , x3 ) et y = (y1 , y2 , y3 ).


2. La forme bilinéaire symétrique

ϕ3 : [C([0; 1], R)]2 −→ R


R1
(f, g) 7−→ 0 f (t)g(t)dt
R1
permet de construire sur C([0; 1], R) la forme quadratique q : f 7−→ 0 (f (t))2 dt.
3. Sur l’espace vectoriel Mn (R), l’application q : A ∈ Mn (R) 7−→ T r(AT A)
est une forme quadratique dont la forme polaire est l’application bilinéaire
(A, B) ∈ [Mn (R)]2 7−→ T r(AT B) ∈ R.
R EMARQUE 4.2.1. 1. Si ϕ0 est la forme polaire d’une forme quadratique q, on a:

∀ (x, y) ∈ E 2 q(x + y) = q(x) + 2ϕ0 (x, y) + q(y)

(ce qui permet de remarquer que q n’est pas linéaire).


2. Soit q une forme quadratique sur un K-espace vectoriel E et ϕ la forme bil-
inéaire la définissant. Pour tout (λ, x) ∈ K × E on a

q(λx) = ϕ(λx, λx) = λ2 ϕ(x, x) = λ2 q(x).

(Comportement d’une forme quadratique vis-à-vis de la multiplication par un


scalaire).
P ROPOSITION 4.2.2. Une application q d’un K-espace vectoriel E dans K est une
forme quadratique sur E si et seulement si:
1. Pour tout (x, λ) ∈ E×, K q(λx) = λ2 q(x).
1
2. L’application (x, y) ∈ E 2 7−→ 2 [q(x + y) − q(x) − q(y)] est une forme bil-
inéaire.
Preuve: (En exercice)

Hippolyte HOUNNON, PhD 57 FAST/UAC


4.2. FORMES QUADRATIQUES 58

E XEMPLE 4.2.2. Prouver que l’application


q : R2 [X] −→ R, P 7−→ P (0)P (1)
est une forme quadratique.
Réponse:
• Soit (λ, P ) ∈ R × R2 [X]
q(λP ) = (λP )(0)(λP )(1)
= λ2 P (0)P (1)
= λ2 q(P )

• Prouvons que ψ : R2 [X] × R2 [X] −→ R définie par


(P, Q) 7−→ 12 [(P + Q)(0)(P + Q)(1) − P (0)P (1) − Q(0)Q(1)]
est une forme bilinéaire sur R2 [X].
Soit (P, Q) ∈ R2 [X] × R2 [X]. On a:
1
ψ(P, Q) = [P (0)Q(1) + P (1)Q(0)]
2
1
= [Q(0)P (1) + Q(1)P (0)]
2
= ψ(Q, P ).

Soit (P, Q, R) ∈ (R2 [X])3 et λ ∈ R.


ψ(λP + Q, R) = 12 [(λP + Q)(0)R(1) + (λP + Q)(1)R(0)]
= 12 [λP
 1 (0)R(1) + Q(0)R(1) + λP(1)R(0) + Q(1)R(0)] 
1
= λ 2 (P (0)R(1) + P (1)R(0) + 2 (Q(0)R(1) + Q(1)R(0)
= λψ(P, R) + ψ(Q, R)
Ce qui prouve la linéarité par rapport à la 1ère variable.
En somme ψ est bilinéaire symétrique.
D ÉFINITION 4.2.2. Soit E un K-espace vectoriel de dimension finie muni d’une
base B et q une forme quadratique sur E.
• On appelle matrice de q dans B, la matrice de sa forme polaire dans B.
• Le rang de la forme quadratique q est le rang de sa forme polaire.
D’après la formule 4.2 on a trivialement:
P ROPOSITION 4.2.3. Soit E un K-espace vectoriel muni d’une base B = (e1 , · · · , en ).
Pn
Soit x = xi ei ∈ E. Soit q une forme quadratique sur E et A sa matrice dans la
i=1  
x1
base B. En posant X =  ... , on a (q(x)) = (X T AX).
 
xn

Hippolyte HOUNNON, PhD 58 FAST/UAC


4.2. FORMES QUADRATIQUES 59

E XEMPLE 4.2.3. Soit q la formequadratique  sur R3 dont la matrice dans la base


3 1 −3 2
canonique de R3 est donnée par  1 1 0 . Soit x = (x1 , x2 , x3 ).
−3
2 0 0
Déterminons q(x). On−3a:  
3x1 + x2 − 32 x3
  
3 1 2 x1
(x1 x2 x3 )  1 1 0   x2  = (x1 x2 x3 )  x1 + x2 
−3
2 0 0 x3 − 32 x1
= (3x21 + x22 + 2x1 x2 − 3x1 x3 )
D’où q(x) = 3x21 + x22 + 2x1 x2 − 3x1 x3 .

4.2.2 Orthogonalité
D ÉFINITION 4.2.3. Soit E un K-espace vectoriel, et q une forme quadratique de
forme polaire ϕ0 .
Deux vecteurs x et y de E sont dits orthogonaux selon q (ou selon ϕ0 ) lorsque
ϕ0 (x, y) = 0.
On dit aussi que x et y sont q (ou ϕ0 )-orthogonaux.
E XEMPLE 4.2.4. Dans l’espace vectoriel R2 la forme quadratique
q : (x1 , x2 ) ∈ R2 7−→ x21 + x22
fournit la notion d’orthogonalité usuelle dans le plan.
En effet:
La forme polaire de q est
ϕ0 : (R2 )2 −→ R
2
P
((x1 , x2 ), (y1 , y2 )) 7−→ xi yi
i=1

Deux vecteurs (x1 , x2 ) et (y1 , y2 ) de R2 sont orthogonaux selon cette forme quadra-
tique si et seulement si
x1 y1 + x2 y2 = 0.
Ainsi selon q les vecteurs U 0 = (4, 0) et V 0 = (5, 5) ne sont pas orthogonaux car
ϕ0 (U 0 , V 0 ) = 20 6= 0.
Mais les vecteurs U = (4, 1) et V = (1, −4). le sont car ϕ0 (U, V ) = 0
D ÉFINITION 4.2.4. Soit A et B deux sous-ensembles non vides d’un K-espace vec-
toriel E, q une forme quadratique sur E et ϕ0 sa forme polaire.
• On appelle orthogonal de A selon q(ou selon ϕ0 ) l’ensemble
A⊥ = {x ∈ E, ∀ y ∈ A, ϕ0 (x, y) = 0}.
• Les deux ensembles A et B sont dit orthogonaux selon q (ou selon ϕ0 ), et on note
A ⊥ B lorsque ∀ x ∈ A, ∀ y ∈ B ϕ0 (x, y) = 0.

Hippolyte HOUNNON, PhD 59 FAST/UAC


4.2. FORMES QUADRATIQUES 60

R EMARQUE 4.2.2. {0E }⊥ = E car pour tout x ∈ E ϕ0 (x, 0E ) = 0


Pour la même raison
{0E } ⊥ A ∀A ∈ P(E) \ {∅}.
P ROPRIÉTÉS 4.2.1. Soit E un K-espace vectoriel, q une forme quadratique sur E.
Soit A et B deux sous-ensembles non vides de E. Alors on a:
1. A ⊂ B ⇒ B ⊥ ⊂ A⊥ .
not.
2. A ⊂ (A⊥ )⊥ = A⊥⊥ .
3. L’ensemble A⊥ est un sous-espace vectoriel de E et A⊥ = [V ect(A)]⊥ .
4. (A B)⊥ = A⊥ B ⊥ .
S T

Preuve: Soit ϕ0 la forme polaire de q.


1. Supposons A ⊂ B.
Soit x ∈ B ⊥ . Alors pour tout b ∈ B, ϕ(x, b) = 0. En particulier pour tout
a ∈ A, ϕ(x, a) = 0 car A ⊂ B.
2. Soit a ∈ A. On sait que pour tout x ∈ A⊥ ϕ0 (a, x) = 0. D’où a ∈ A⊥⊥ par
suite A ⊂ A⊥⊥ .
3. Pour tout x ∈ A, ϕ0 (0E , x) = 0 car l ’application t 7→ ϕ(t, x) est linéraire.
Ainsi 0E ∈ A⊥ .
Soit (x, y, a) ∈ A⊥ × A⊥ × A et α ∈ K. Alors on a:

ϕ0 (αx + y, a) = αϕ0 (x, a) + ϕ0 (y, a) bililéarité de ϕ0


= 0 car (x, y, a) ∈ A⊥ × A⊥ × A

En somme A⊥ est un sous-espace vectoriel de E.


On sait que A ⊂ V ect(A). Donc [V ect(A)]⊥ ⊂ A⊥ d’après 1.).
Soit x ∈ PA⊥ et u ∈ V ect(A). Alors il existe un sous-ensemble fini I de N tel
que u = αi ai avec ai ∈ A pour tout i ∈ I. Ainsi
i∈I
αi ϕ(x, ai ) = 0 car ϕ est bilinéaire et x ∈ A⊥ .
P P
ϕ(x, u) = ϕ(x, αi ai ) =
i∈I i∈I

D’où x ∈ [V ect(A)] .
Le reste de la preuve est un bon exercice de maison.
E XEMPLE 4.2.5. Soit E = R2 [X] et la forme quadratique

q : P ∈ E 7−→ P (0)P (1)

Posons A = {1 + X + X 2 }.
Déterminer [V ect(A)]⊥ et (A⊥ )⊥ puis justifions que A⊥⊥ 6⊂ A

Hippolyte HOUNNON, PhD 60 FAST/UAC


4.2. FORMES QUADRATIQUES 61

4.2.3 Noyau et cône isotrope d’une forme quadratique


D ÉFINITION 4.2.5. Soit E un K-espace vectoriel et q une forme quadratique sur E
dont la forme polaire est ϕ.
• On appelle noyau de la forme quadratique q (ou de la forme bilinéaire symétrique
ϕ ) l’ensemble
N (q) = E ⊥ = {u ∈ E| ∀v ∈ E, ϕ0 (u, v) = 0}.
• On appelle cône isotrope de q (ou de la forme bilinèaire symétrique ϕ ), l’ensemble
C(q) = {u ∈ E, q(u) = 0} = {u ∈ E, ϕ(u, u) = 0}.
Les éléments du cône isotrope sont appélés des vecteurs isotropes
R EMARQUE 4.2.3. • 0E ∈ N (q) et 0E ∈ C(q).
• Ne pas confondre N (q) et C(q).
N (q) est l’ensemble des vecteurs de E qui sont orthogonaux (selon q) à tous les
vecteurs de E alors que C(q) est l’ensemble des vecteurs orthogonaux à eux mêmes.
Ainsi on a N (q) ⊂ C(q).
E XEMPLE 4.2.6. On considère la forme quadratique
q : x = (x1 , x2 ) ∈ R2 7−→ x21 − x22 .
Déterminer N (q) et C(q).
Réponse:
La forme polaire de q est ϕ0 : (R2 )2 −→ R définie pour tous
x = (x1 , x2 ) et y = (y1 , y2 ) par ϕ0 (x, y) = x1 y1 − x2 y2 . (A justifier)
Ainsi N (q) = {(x1 , x2 ) ∈ R2 , ∀ Y = (y1 , y2 ) ∈ R2 x1 y1 − x2 y2 = 0}
En prenant Y ∈ {(1, 0), (0, 1)}, on a x1 = x2 = 0.
D’où N (q) ⊂ {0R2 }. Par suite N (q) = {0R2 } car N (q) ⊃ {0R2 }

C(q)={(x1 , x2 ) ∈ R2 /x21 − x22 = 0}


={(x1 , x2 ) ∈ R2 /x1 = −x2 ou x1 = x2 } .
=V ect{(−1, 1)} ∪ V ect{(1, 1)}
On peut généraliser la notion du noyau d’une forme quadratique au noyau d’une
forme bilinéaire de la manière suivante:
D ÉFINITION 4.2.6. On appelle noyau d’une forme bilinéaire symétrique ϕ sur un
R-espace vectoriel E, l’ensemble
not.
{u ∈ E, ϕ(u, v) = 0, pour tout v ∈ E} = Ker(ϕ)
Il est facile de prouver que le noyau d’une forme bilinéaire sur un R-espace vec-
toriel E est un sous-espace vectoriel de E.
En dimension finie on a:

Hippolyte HOUNNON, PhD 61 FAST/UAC


4.2. FORMES QUADRATIQUES 62

L EMME 4.2.1. Soit B = (ei )1≤i≤n une base d’un K-un espace vectoriel E de di-
mension n, et A la matrice d’une forme bilinéaire symétrique ϕ dans la base B et f
l’endomorphisme de E de matrice A dans la base B. On a alors: dim(ker(ϕ)) =
dim(ker(A)) .

T HÉORÈME 4.2.1. (Théorèrme du rang pour les formes quadratiques)


Soit q une forme quadratique sur un R-espace vectoriel de dimension finie. Alors
dim(E) = rg(q) + dim(N (q))
Preuve: Conséquence directe du lemme précédent.

D ÉFINITION 4.2.7. On dit qu’une forme bilinéaire symétrique ϕ sur un K− espace


vectoriel E (ou de manière équivalente la forme quadratique q) est non dégénérée si
son noyau est réduit à {0E }.
Il est facile de vérifier qu’en dimension finie, une forme bilinéaire symétrique
est non dégénérée si, et seulement si, sa matrice dans une quelconque base de E est
inversible, ce qui équivaut à dire que son déterminant est non nul.

4.2.4 Bases orthogonales


D ÉFINITION 4.2.8. Soit F une famille de vecteurs d’un K-espace vectoriel E et q
une forme quadratique sur E de forme polaire associée ϕ0 .
• La famille F est dite q-orthogonale lorsque

∀ (f, f 0 ) ∈ F 2 , (f 6= f 0 =⇒ ϕ0 (f, f 0 ) = 0)
• La famille F est dite q-orthonormale lorsque la famille F est q-orthogonale et
pour tout f ∈ F ϕ0 (f, f ) = 1.

Hippolyte HOUNNON, PhD 62 FAST/UAC


4.2. FORMES QUADRATIQUES 63

Convention: Une famille réduit à un seul vecteur non nul sera considérée comme
q-orthogonale pour toute forme quadratique q.
E XEMPLE 4.2.7. Soit E = C([0, 1]; R) et q la forme quadratique dont la forme
polaire est R1
ϕ0 : (f, g) ∈ E 2 7−→ 0 f (t)g(t)dt ∈ R
Prouver que la famille (fn )n∈N∗ de E définie par:

∀n ∈ N∗ fn : t ∈ [0, 1] 7−→ cos(2πnt)

est une famille q-orthogonale mais n’est pas q-orthonormale.


Donner une famille F1 de E qui est q-orthonormale.
Réponse:

Hippolyte HOUNNON, PhD 63 FAST/UAC


4.2. FORMES QUADRATIQUES 64

P ROPOSITION 4.2.4. Soit E un K-espace vectoriel et q une forme quadratique sur


E. Toute famille de vecteurs de E qui est q-orthonormale est une famille libre.
Preuve: Soit (vi )i∈I une famille de vecteurs de E qui est q-orthonormale. Si cette
famille est infinie, pour prouver que c’est une famille libre, il faut prouver toutes ses
sous-familles finies sont libres. Ainsi, si on prouve que toute famille finie de vecteurs
de E qui est q-orthonormale est une famille libre alors la proposition est démontrée.
Considérons une famille finie F = (v1 , · · · , vp ) (p ∈ N∗ ) q-orthonormale.
Soit (λ1 , · · · , λp ) ∈ Rp , ϕ0 , la forme polaire de q.
p
P p
P
λi vi = 0E =⇒ ∀ k ∈ db1, pec, ϕ0 ( λi vi , vk ) = 0
i=1 i=1
p
P
=⇒ ∀ k ∈ db1, pec λi ϕ0 (vi , vk ) = 0
i=1
=⇒ ∀ k ∈ db1, pec λk ϕ0 (vk , vk ) = 0
=⇒ ∀ k ∈ db1, pec λk ϕ0 (vk , vk ) = 0 car ϕ0 (vk , vk ) = 1
=⇒ ∀ k ∈ db1, pec λk = 0
Ainsi la famille F est libre.
R EMARQUE 4.2.4. Une famille peut être q-orthogonale sans être pour autant libre.
Par exemple la famille {(1, 1); (2, 2)} de R2 est q-orthogonale pour la forme quadra-
tique q définie par q(x) = x21 − x22 mais elle n’est pas libre.

4.2.5 Cas de la dimension finie


P ROPOSITION 4.2.5. Soit E un K-espace vectoriel de dimension finie et q une forme
quadratique sur E.
• La matrice de q dans une base q-orthonormale est la matrice unité.
• La matrice de q dans une base q-orthogonale est une matrice diagonale.

Preuve: évidente
T HÉORÈME 4.2.2. (Théorème de Schmidt)
Soit E un K-espace vectoriel de dimension finie non nulle et q une forme quadratique
sur E.
L’espace E admet une base q-orthogonale.
Preuve: Raisonnons par récurrence sur la dimension n de E. Pour tout n ∈ N∗ on
va prouver l’assertion Pn suivante:
“ Pour tout K-espace vectoriel E de dimension n et toute forme quadratique q sur E,
il existe une base q-orthogonale de E.”
• Pour n = 1, toute base de E est formée d’un seul vecteur non nul et par convention
cette base est q-orthogonale.

Hippolyte HOUNNON, PhD 64 FAST/UAC


4.2. FORMES QUADRATIQUES 65

• Soit n ∈ N∗ . Supposons que l’assertion (Pn ) est vraie.

Soit E un K-espace vectoriel de dimension n + 1 et q une forme quadratique sur


E.
Si q est l’application nulle alors toute base de E est q-orthogonale.
Intéressons nous au cas où q est non nulle. Alors il existe v ∈ E tel que q(v) 6= 0. La
forme polaire ϕ0 associée à q étant bilinéaire, l’application f : x ∈ E 7−→ ϕ0 (v, x)
est une forme linéaire non nulle car f (v) = ϕ0 (v, v) = q(v) 6= 0 d’où Imf = K car
0E 6= f (v) ∈ Imf ⊂ K et dimK = 1.
D’après la formule du rang: dim(kerf ) = n. Ainsi kerf est sous-espace vectoriel
de E de dimension n.
D’après l’hypothèse de récurrence, il existe une base (e1 , e2 , · · · , en ) de kerf , q-
orthogonale pour la forme quadratique q|kerf . Ainsi la famille (e1 , e2 , · · · , en , v) est
une famille libre car (e1 , e2 , · · · , en ) est libre et v 6∈ V ect(e1 , e2 , · · · , en ). Ainsi
(e1 , e2 , · · · , en , v) est une base de E car dimE = n + 1.
De plus cette base de E est q-orthogonale car la base (e1 , e2 , · · · , en ) est q-orthogonale
et
∀i ∈ {1, · · · , n} ϕ0 (ei , v) = f (ei ) = 0
C OROLLAIRE 4.2.1. Pour toute matrice A ∈ Sn (K), il existe une matrice
P ∈ GLn (K) telle que P T AP soit diagonale.
Preuve: Soit A ∈ Sn (K). On peut associer la forme quadratique q sur K définie
par
∀ x ∈ Kn q(x) = X T AX
où X est le vecteur-colonne du système de coordonnées de X dans la base canonique
de Kn .
D’après le théorème de Schmidt, il existe une base B de Kn qui est q-orthogonale.
La matrice D de q relative à cette base est diagonale.
Si P désigne la matrice de passage de la base canonique à la base q-orthogonale B
alors P ∈ GLn (K) et D = P T AP . Ainsi la matrice P T AP est donc diagonale.

4.2.6 D ÉCOMPOSITION D ’ UNE FORME QUADRATIQUE EN SOMME DE CARRÉE


DE FORMES LINÉAIRES

T HÉORÈME 4.2.3. (Théorème de Gauss)


Soit q une forme quadratique sur un R-espace vectoriel E de dimension non nulle n
.
Les assertions suivantes sont équivalentes:
• Le rang de q est égale à r.
• Il existe r formes linéaires indépendantes f1 , f2 , · · · , fr sur E et il existe r réels

Hippolyte HOUNNON, PhD 65 FAST/UAC


4.2. FORMES QUADRATIQUES 66

non nuls γ1 , γ2 , · · · , γr tels que


r
X
q= γi fi2
i=1

Indications:
(⇒) soit E un K-espace vectoriel muni d’une base (e1 , e2 , · · · , en ).
n
P
Soit q une forme quadratique sur E. Pour tout x = xi ei ∈ E, on peut facilement
i=1
prouver que:
n n P
n
aii x2i +
P P
q(x) = aij xi xj où aij ∈ K, 1 ≤ i, j ≤ n.
i=1 i=1 j=i+1
Selon les cœfficients aij , 1 ≤ i, j ≤ n deux cas sont à envisager:
Premier cas: il existe au moins un entier i tel que aii 6= 0.
Supposons qu’il s’agisse de a11 6= 0. En notant x0 = (x2 , · · · , xn ), on écrit dans un
premier temps q sous la forme:

q(x) = a11 x21 + x1 B(x0 ) + C(x0 ),

où B est une forme linéaire sur un espace vectoriel de dimension n − 1 et C une


forme quadratique sur un espace vectoriel de dimension n − 1. La forme quadratique
q peut ensuite s’écrire comme la somme du carré d’une forme linéaire et d’une forme
quadratique en x0 de la manière suivante:
2 
B(x0 ) B(x0 )2
 
0
q(x) = a11 x1 + + C(x ) − .
2a11 4a11
Deuxième cas: tous les termes aii sont nuls et il existe un coœfficient non nul
aij i 6= j.
Supposons qu’il s’agisse de a12 . En notant x00 = (x3 , · · · , xn ), on écrit dans un
premier temps q sous la forme:

q(x) = a12 x1 x2 + x1 B(x00 ) + x2 C(x00 ) + D(x00 ),

où B et C sont des formes linéaires et D une formes quadratique. On écrit ensuite q


comme la somme des carrés d’une forme linéaire et d’une forme quadratique en x00
de la façon suivante:
C(x00 ) B(x00 ) B(x00 )C(x00 )
    
00
q(x) = a12 x1 + x2 + + D(x ) − .
a12 a12 a12
 00 00
2  00 00
2 !
a12 B(x ) + C(x ) B(x ) − C(x )
= x1 + x2 + − x1 − x2 −
4 a12 a12
B(x00 )C(x00 )
 
00
+ D(x ) − .
a12

Hippolyte HOUNNON, PhD 66 FAST/UAC


4.2. FORMES QUADRATIQUES 67

On peut itérer alors ce processus pour décomposer une forme quadratique comme la
somme de carrés de formes linéaires f1 , · · · , fq sur l’espace vectoriel E.
Montrons la réciproque; supposons qu’il existe r formes linéaires indépendantes
r
γi fi2 . D’après le
P
f1 , · · · , fr et qu’il existe r réels non nuls γ1 , · · · , γr tels que q =
i=1
théorème de la base incomplète, la famille {f1 , · · · , fr } de l’espace vectoriel E ∗ , qui
est une famille libre, peut être complètée en une base B̃ = (f1 , f2 , · · · , fn ) de E ∗ .
D’après Corollaire 1.1.1, il existe une base unique B = (e1 , e2 , · · · , en ) de E dont la
base duale est B̃. Déterminons la matrice de q dans cette base en évaluant ϕ0 (ei , ej )
pour tout (i, j) ∈ {1, · · · , n}2 où ϕ0 est la forme polaire de q définie par
r
X
2
∀ (x, y) ∈ E ϕ0 (x, y) = γk fk (x)fk (y).
k=1

Par définition d’une base duale on a fi (ej ) = δij pour tout (i, j) ∈ {1, · · · , n}2 et
par conséquent
r
X
2
(i, j) ∈ {1, · · · , n} ϕ0 (ei , ej ) = γk δik δjk .
k=1

On a δik 6= 0 si et seulement si k = i et δjk 6= 0 si et seulement si k = j donc


ϕ0 (ei , ej ) 6= 0 si et seulement si i = j. La matrice de q dans la base B est donc
diagonale. De plus, pour tout i ∈ {1, · · · , r} on a ϕ0 (ei , ej ) = γi et pour tout
i ∈ {r + 1, · · · , n} on a ϕ0 (ei , ej ) = 0. La matrice est donc composée sur la
diagonale des réels non nuls γ1 , γ2 , · · · , γr complètée par des 0. Le rang d’une telle
matrice est r.
E XEMPLE 4.2.8.
Décomposons en utilisant la méthode de Gauss la forme quadratique q définie sur
R3 par

q(x) = x21 + 2x22 + 8x23 − 2x1 x2 + 4x1 x3 , avec x = (x1 , · · · , x4

q(x) = x21 + 2x22 + 8x23 + x1 (−2x2 + 4x3 ) 


= x21 + 2x1 (2x3 − x2 ) + (2x3 − x2 )2 − (2x3 − x2 )2 + 2x22 + 8x23
= (x1 + 2x3 − x2 )2 + 4x23 + x22 + 4x2 x3
= (x1 + 2x3 − x2 )2 + (x2 + 2x3 )2
On a donc q(x) = (f1 (x))2 + (f2 (x))2 où f1 (x) = x1 + 2x3 − x2 et f2 (x) =
x2 + 2x3
Décomposons en utilisant la méthode de Gauss la forme quadratique q1 définie sur
R4 par
q1 (x) = x1 x2 + x1 x3 + x1 x4 + x2 x3 + x2 x4 + x3 x4 .

Hippolyte HOUNNON, PhD 67 FAST/UAC


4.2. FORMES QUADRATIQUES 68

Aucun carré n’appartient, on regroupe tous les termes faisant apparaître x1 et


x2 de façon suivante:
q1 (x) = x1 x2 + x1 x3 + x1 x4 + x2 x3 + x2 x4 + x3 x4
= (x1 + x3 + x4 )(x2 + x3 + x4 ) − (x3 + x4 )2 + x3 x4
= 41 (x1 + x2 + 2(x3 + x4 ))2 − 14 (x1 − x2 )2 − x23 − x24 − x3 x4 .
Il reste à s’occuper des termes ne faisant pas apparaître x1 et x2 , c’est-à-dire
la forme quadratique sur R2 définie par
q˜1 (x3 , x4 ) = x23 + x24 + x3 x4 .
On regroupe dans un même 2 terme tous les termes où est présent x3 :
1 1 2
q˜1 (x3 , x4 ) = x3 + 2 x4 − 4 x4 + x24
2
= x3 + 12 x4 + 34 x24
D’où q1 (x) =

T HÉORÈME 4.2.4. (Loi d’inertie de Sylvester)


Soit q une forme quadratique sur un R-espace vectoriel E de dimension n et
B = (e1 , · · · , en ) une base q-orthogonale de E. On note:
α(B) = card{i ∈ N; 1 ≤ i ≤ n et q(ei ) > 0}, et
β(B) = card{i ∈ N; 1 ≤ i ≤ n et q(ei ) < 0}
Les entiers α(B) et β(B) sont indépendants de la base orthogonale B.
D ÉFINITION 4.2.9. (Signature d’une forme quadratique)
Soit q une forme quadratique sur un espace vectoriel E de dimension n,
B = (e1 , · · · , en ) une base q-orthogonale de E et α, β les entiers.
α = card{i ∈ N; 1 ≤ i ≤ n et q(ei ) > 0}, et
β = card{i ∈ N; 1 ≤ i ≤ n et q(ei ) < 0}
On appelle signature de la forme quadratique q le couple ε(q) = (α, β).
Calculer la signature d’une forme quadratique en utilisant la définition des entiers
α, et β requiert une base orthogonale pour cette forme quadratique. Le théorème de
Gauss permet de déterminer la signature d’une forme quadratique sans avoir recours
à une telle base. Plus précisément, on a le théorème suivant:
T HÉORÈME 4.2.5. Soit E un R-espace vectoriel E de dimension finie et q une forme
quadratique sur E dont une décomposition en carré de formes linéaires indépen-
r
γi fi2 . La signature de q est (α, β) avec
P
dantes est q =
i=1

α = card{i ∈ N; 1 ≤ i ≤ r et γi > 0}, et


β = card{i ∈ N; 1 ≤ i ≤ r et γi < 0}

Hippolyte HOUNNON, PhD 68 FAST/UAC


4.2. FORMES QUADRATIQUES 69

E XEMPLE 4.2.9. Déterminer le rang et la signature de chacune des formes quadra-


tiques de l’Exemple 4.2.8

Hippolyte HOUNNON, PhD 69 FAST/UAC


Chapter 5

E SPACES VECTORIELS EUCLIDIENS

5.1 P RODUIT SCALAIRE


D ÉFINITION 5.1.1. Soit E un R-espace vectoriel et q une forme quadratique sur E.
• La forme quadratique q est dite positive lorsque q(x) ≥ 0 pour tout x ∈ E.
• La forme quadratique q est dite définie lorsque q(x) 6= 0 pour tout x ∈ E \ {0E }.
R EMARQUE 5.1.1. Pour montrer qu’une forme quadratique sur un R-espace vec-
toriel E est définie, il faut montrer que si x 6= 0 alors q(x) 6= 0. En pratique, il
est souvent plus simple d’utiliser la contraposée: on montre que si q(x) = 0 alors
nécessairement x = 0.
Inversement, pour montrer qu’une forme quadratique q sur un R-espace vectoriel
n’est pas définie, il suffit de trouver un vecteur x 6= 0 pour lequel q(x) = 0.
Le terme “ défini ” n’est pas à prendre dans son sens usuel en mathématiques car
pour une forme quadratique q sur un espace vectoriel E, le réel q(x) “ existe ” pour
tout x ∈ E.
n
E XEMPLE 5.1.1. 1. La forme quadratique q : x = (x1 , · · · , xn ) ∈ Rn 7−→ x2i
P
i=1
est une forme quadratique définie et une forme quadratique positive. En effet,
cette application est positive car une somme de carrés de réels est toujours
positive.
Elle est définie car q(x) = 0 implique que xi = 0 pour tout i ∈ {1, · · · , n},
donc que x = 0 (une somme de réels positifs est nulle si et seulement si tous les
termes la composant sont nuls).
R1
2. La forme quadratique q : f ∈ C([0, 1], R) 7−→ 0 [f (t)]2 dt est aussi une forme
quadratique définie et une forme quadratique positive.
La positivité provient de la positivité de l’intégrale d’une fonction positive.
la continuité de f permet d’affirmer que ϕ(f, f ) 6= 0 lorsque f 6= 0: l’application
q est donc une forme quadratique définie.

70
5.1. PRODUIT SCALAIRE 71

R EMARQUE 5.1.2. 1. On dira qu’une forme quadratique q sur un R-espace vec-


toriel E est définie positive si elle est à la fois définie et positive. Autrement dit,
une forme quadratique q est définie positive si q(x) > 0 pour tout x ∈ E \{0E }.
2. On dira qu’une forme bilinéaire symétrique ϕ sur un R-espace vectoriel E est
définie (resp positive) si la forme quadratique qui lui est associée q : x ∈
E 7−→ ϕ(x, x) est une forme quadratique définie ( resp positive).
3. On dira qu’une forme bilinéaire symétrique ϕ sur un R-espace vectoriel E est
définie positive si la forme quadratique qui lui est associée q : x ∈ E 7−→
ϕ(x, x) est une forme quadratique définie positive.
P ROPOSITION 5.1.1. Soit E un R-espace vectoriel et ϕ : E 2 → R une forme bil-
inéaire symétrique définie. Soit (a, b, c) ∈ E 3 . On a

∀x ∈ E, ϕ(x, a) = 0 ⇐⇒ a = 0E

et
∀x ∈ E, ϕ(x, b) = ϕ(x, c) ⇐⇒ b = c.
D ÉMONSTRATION:

D ÉFINITION 5.1.2. (Produit scalaire)


On appelle produit scalaire sur un R-espace vectoriel E une forme bilinéaire symétrique
définie positive.
Pour établir qu’une forme bilinéaire ϕ est un produit scalaire, il faut prouver que:
- l’application ϕ est symétrique: ∀(x, y) ∈ E 2 ϕ(x, y) = ϕ(y, x);
- la forme quadratique q : x ∈ E 7−→ ϕ(x, x) est définie positive
. ∀x ∈ E ϕ(x, x) ≥ 0,
. ∀x ∈ E ϕ(x, x) = 0 =⇒ x = 0E
n
n 2
P
E XEMPLE 5.1.2. 1. La forme bilinéaire ϕ : (x, y) ∈ (R ) 7−→ xi yi avec
i=1
n
x = (x1 , · · · , xn ) et y = (y1 , · · · , yn ) est un produit scalaire sur R (à justifier),

Hippolyte HOUNNON, PhD 71 FAST/UAC


5.1. PRODUIT SCALAIRE 72

appelé produit scalaire canonique de Rn .


Matriciellement, on a
(ϕ(x, y)) = X T Y
X et Y étant les matrices colonnes des systèmes de coordonnées respectives de
x et de y dans la base canonique de Rn .
R1
2. La forme bilinéaire ϕ : (f, g) ∈ C([0, 1], R)2 7−→ 0 f (t)g(t)dt est un produit
scalaire (à justifier).
T HÉORÈME 5.1.1. (Inégalité de Cauchy-Schwarz)
Pour tout produit scalaire ϕ sur un R-espace vectoriel E, on a:

∀ (x, y) ∈ E 2 |ϕ(x, y)|2 ≤ ϕ(x, x)ϕ(y, y)

D ÉMONSTRATION: Soit ϕ un produit scalaire sur E et (x, y) ∈ E 2 .


L’application bilinéaire ϕ étant positive on a

ϕ(x + ty, x + ty) ≥ 0 pour tout t ∈ R.

De plus, en vertu de la bilinéarité et de la symétrie de ϕ on a:

ϕ(x + ty, x + ty) = t2 ϕ(y, y) + 2tϕ(x, y) + ϕ(x, x)

1er cas: ϕ(y, y) = 0.


Alors y = 0E (car ϕ est définie).
2nd cas: ϕ(y, y) 6= 0.
Alors l’application t ∈ R 7−→ ϕ(x + ty, x + ty) est un trinôme du second degré qui
est à valeur positive. Elle admet donc au plus une racine réelle et par conséquent,
son discriminant ∆ est négatif ou nul. Ce discriminant vaut:

∆ = 4ϕ(x, y)2 − 4ϕ(x, x)ϕ(y, y)

et l’inégalité ∆ ≤ 0 correspond à l’inégalité de Cauchy-Schwarz.

On rappelle qu’une application N : E → R est une norme lorsque:


1. ∀ x ∈ E, N (x) ≥ 0
2. ∀ x ∈ E, N (x) = 0 =⇒ x = 0E
3. ∀ x ∈ E, ∀ λ ∈ R N (λx) = |λ|N (x)
4. ∀ (x, y) ∈ E 2 , N (x + y) ≤ N (x) + N (y)

p Soit ϕ un produit scalaire sur un R-espace vectoriel E. L’application


P ROPOSITION 5.1.2.
N : x ∈ E 7−→ ϕ(x, x) est une norme sur E, appelée norme associée au produit
scalaire ϕ.

Hippolyte HOUNNON, PhD 72 FAST/UAC


5.2. ESPACE EUCLIDIEN 73

D ÉMONSTRATION: La première condition est évidente d’après la définition de N .


La deuxième résulte du fait que ϕ est une forme bilinéaire définie.
La troisième découle de manière immédiate de la bilinéarité ϕ.
Soit (x, y) ∈ E 2 . On a:

[N (x + y)]2 = ϕ(x + y, x + y)

L’application ϕ étant bilinéaire et symétrique, on en déduit que:

[N (x + y)]2 = [N (x)]2 + 2ϕ(x, y) + [N (y)]2 .

De l’ínégalité de Cauchy-Schwarz, on a:
p p
|ϕ(x, y)| ≤ ϕ(x, x) ϕ(y, y) = N (x)N (y).

car ϕ(x, x) ≥ 0 et ϕ(y, y) ≥ 0 On en déduit que:

[N (x + y)]2 = [N (x)]2 + 2N (x)N (y) + [N (y)]2 = [N (x) + N (y)]2 .

La quatrième condition est ainsi établie.

5.2 Espace euclidien


5.2.1 Définition
D ÉFINITION 5.2.1. . Un espace préhilbertien est un R-espace vectoriel muni d’un
produit scalaire et un espace euclidien est un espace préhilbertien de dimension finie.
E XEMPLE 5.2.1. L’espace Rn muni de son produit scalaire canonique est un espace
euclidien.
L’espace C([0, 1], R) muni du produit scalaire:
R 1
ϕ : (f, g) ∈ C([0, 1], R)2 7−→ 0 f (t)g(t)dt
est un espace préhilbertien (voir Exemple 5.1.2).
Lorsqu’il n’y aura pas d’ambiguïté, on notera hx, yi le produit scalaire entre deux
éléments x et y, et ||x|| la norme associée. Un espace euclidien correspond à la donnée
d’un couple (E, h . , i ) formé d’un R-espace vectoriel de dimension finie et d’un
produit scalaire sur cet espace.

5.2.2 Procédé d’orthogonalisation de Schmidt


La méthode d’orthogonalisation de Schmidt est une méthode permettant, à l’aide du
produit scalaire, de construire des bases orthogonales à partir d’une base quelconque.

Hippolyte HOUNNON, PhD 73 FAST/UAC


5.2. ESPACE EUCLIDIEN 74

P ROPOSITION 5.2.1. Soient E un espace préhilbertien et (e1 , e2 , · · · , ep ) une famille


libre de E. La famille (ε1 , ε2 , · · · , εp ) définie par ε1 = e1 et pour tout
k−1
X hεi , ek i
k ∈ {2, · · · , p}, εk = ek − εi , (5.1)
i=1
||εi ||2

est une famille orthogonale qui engendre le même espace vectoriel que la famille
(e1 , e2 , · · · , ep ).
Démonstration: Prouvons par récurrence sur q ∈ N∗ la proposition (Pq ):
“Pour toute famille libre à q éléments (e1 , e2 , · · · , eq ), la famille (ε1 , ε2 , · · · , εq )
définie par la relation (5.1) est orthogonale et ces deux familles engendrent le même
espace vectoriel.”
• La propriété (P1 ) est vraie: en effet, la famille {ε1 }, réduite à un élément non nul,
est libre. De plus cette famille {ε1 } est orthogonale puisque toute famille à un élé-
ment non nul est orthogonale.
• Soit q ∈ N∗ . Supposons que la propriété (Pq ) est tout et prouvons que la propriété
(Pq+1 ) est vraie.
Considérons une famille libre à q + 1 éléments: (e1 , e2 , · · · , eq+1 ), et construisons la
famille (ε1 , ε2 , · · · , εq+1 ) en utilisant la relation (5 1).
La famille (e1 , e2 , · · · , eq ) étant une famille extraite de la famille libre (e1 , e2 , · · · , eq+1 ),
elle est libre. Par hypothèse de récurrence il existe une famille orthogonale (ε1 , ε2 , · · · , εq )
définie par la relation (5.1) engendrant le même espace que la famille (e1 , e2 , · · · , eq ).
Considérons la famille C = (ε1 , ε2 , · · · , εq+1 ) avec
q
X hεi , eq+1 i
εq+1 = eq+1 − εi
i=1
||εi ||2

Prouvons que C est orthogonale.


Il suffit de prouver que εq+1 est orthogonale aux autres vecteurs εk pour
k ∈ {1, · · · , q} car la famille (ε1 , ε2 , · · · , εq ) est orthgonale.
Pour tout k ∈ {1, · · · , q} on a:
q
X hεi , eq+1 i
hεq+1 , εk i = heq+1 , εk i − hεi , εk i
i=1
||εi ||2

Comme la famille (ε1 , ε2 , · · · , εq ) est orthogonale, les termes hεi , εk i apparaissant


dans la dernière somme sont nuls excepté le terme correspondant à la valeur i = k.
On obtient donc:
q
X hεi , eq+1 i
hεq+1 , εk i = heq+1 , εk i − hεi , εk i = 0
i=1
||εi ||2

Hippolyte HOUNNON, PhD 74 FAST/UAC


5.2. ESPACE EUCLIDIEN 75

ce qui permet de conclure que la famille (ε1 , ε2 , · · · , εq+1 ) est orthogonale.


Il reste à prouver V ect(ε1 , ε2 , · · · , εq+1 ) = V ect(e1 , e2 , · · · , eq+1 ).
Par hypothèse de récurrence, V ect(ε1 , ε2 , · · · , εq ) = V ect(e1 , e2 , · · · , eq ). Puisque
eq+1 s’exprime comme combinaison linéaire de εq+1 et des autres εk , on en déduit que
V ect(e1 , e2 , · · · , eq+1 ) ⊂ V ect(ε1 , ε2 , · · · , εq+1 ). De même εq+1 est définie comme
combinaison linéaire de eq+1 et des εk , k ∈ {1, · · · , q}, ces derniers étant eux
mêmes combinaisons des ek ,k ∈ {1, · · · , q}, on obtient V ect(ε1 , ε2 , · · · , εq+1 ) ⊂
V ect(e1 , e2 , · · · , eq+1 ).
Finalement on conclut: V ect(ε1 , ε2 , · · · , εq+1 ) = V ect(e1 , e2 , · · · , eq+1 ).
R EMARQUE 5.2.1. Puisque les vecteurs εi sont non nuls, on a ||εi || 6= 0 et on peut di-
viser chacun des vecteurs de (ε1 , ε2 , · · · , εp ) par sa norme afin d’obtenir une famille
orthonormale.
E XEMPLE 5.2.2. Considérons le R-espace vectoriel R2 [X] des polynômes à coeffi-
cients réels de degré inférieur ou égal à 2 muni du produit scalaire
Z 1
ϕ : (P, Q) ∈ R2 [X] × R2 [X] 7−→ P̃ (t)Q̃(t)dt.
0

Donner une base orthonormale de cet espace euclidien.

Hippolyte HOUNNON, PhD 75 FAST/UAC


5.3. ISOMÉTRIES ET MATRICES ORTHOGONALES 76

R EMARQUE 5.2.2. Considérons une base orthonormale (ε1 , ε2 , · · · , εn ) d’un espace


vectoriel E de dimension n. Pour tout (x, y) ∈ E 2 de composantes (x1 , x2 · · · , xn )
et (y1 , y2 , · · · , yn ) dans la base (ε1 , ε2 , · · · , εn ), on a
Xn n
X n X
X n n
X
hx, yi = h x i εi , yj εj i = xi yj hεi , εj i = xi yi
| {z }
i=1 j=1 i=1 j=1 =δij i=1

n
2
x2i .
P
et ||x|| =
i=1
En terme matriciel, on a: hx, yi = X T Y et ||x||2 = X T X, X et Y étant les
matrices colonnes ayant pour coefficients les composantes de x et y dans une base
orthonormale de E.
Ainsi dans un espace euclidien de dimension n, muni d’une base orthonormale, tout
se passe comme dans l’espace euclidien Rn muni du produit scalaire canonique.
T HÉORÈME 5.2.1. Soit (E, ϕ) un espace vectoriel euclidien et F un sous-espace
vectoriel de E. Alors on a:
L ⊥
1. F F =E
2. F ⊥ ⊥
=F
Démonstration:

5.3 Isométries et matrices orthogonales


5.3.1 Isométries
D ÉFINITION 5.3.1. (Isométrie)
Soient E un espace euclidien et u un endomorphisme de E. On dit que u est une
isométrie lorsque:
∀(x, y) ∈ E, hu(x), u(y)i = hx, yi (5.2)
On dit que l’isométrie conserve le produit scalaire ce qui signifie que le produit
scalaire des images de deux éléments x et y de E est égal au produit scalaire des deux
éléments x et y.

En choisissant x = y on établit aisément qu’une isométrie u est un endomor-


phisme qui conserve la norme, i.e. que ||u(x)|| = ||x|| pour tout x ∈ E. On a plus
précisément le résultat suivant:
P ROPOSITION 5.3.1. Soit E un espace euclidien et u un endomorphisme de E. L’endomorphism
u est une isométrie si et seulement si
∀ x ∈ E ||u(x)|| = ||x|| (5.3)

Hippolyte HOUNNON, PhD 76 FAST/UAC


5.3. ISOMÉTRIES ET MATRICES ORTHOGONALES 77

Démonstration: Nous avons prouvé en préambule que toute isométrie conserve la


norme. Prouvons la réciproque.
Supposons que l’endomorphisme u conserve la norme et considérons deux vecteurs
x et y de E. En utilisant la formule de polarisation, on obtient:
1
||u(x) + u(y)||2 − ||u(x) − u(y)||2

hu(x), u(y)i =
4
La linéarité de l’application u et l’assertion 5.3 indiquent que

||u(x) + u(y)||2 = ||u(x + y)||2 = ||x + y||2 et


||u(x) − u(y)||2 = ||u(x − y)||2 = ||x − y||2

Ainsi on obtient:
1
||x + y||2 − ||x − y||2 = hx, yi

hu(x), u(y)i =
4
(formule de polarisation).
Ainsi u est une isométrie.
P ROPOSITION 5.3.2. 1. Toute isométrie d’un espace euclidien E est un automor-
phisme de E.
2. L’ensemble des isométries d’un espace euclidien E est un sous-groupe du groupe
linéaire (GL(E), ◦) de E, que l’on note O(E) appelé le groupe des isométries
de E.
Preuve:

Hippolyte HOUNNON, PhD 77 FAST/UAC


5.3. ISOMÉTRIES ET MATRICES ORTHOGONALES 78

Une autre manière de caractériser les isométries d’un espace euclidien E est de
considérer leur action sur une base orthonormale de E. On a le résultat suivant:
P ROPOSITION 5.3.3. Soit E un espace euclidien de dimension et (e1 , e2 , · · · , en ) une
base orthonormale de E. Un endomorphisme u de E est une isométrie si et seulement
si (u(e1 ), u(e2 ), · · · , u(en )) est une base orthonormale de E.
Démonstration:
. Supposons que l’endomorphisme u soit une isométrie et considérons une base
orthonormale (e1 , e2 , · · · , en ) de E. Pour tout (i, j) ∈ {1, · · · , n}2 avec i 6= j
on a hu(ei ), u(ej )i = hei , ej i = 0 et pour tout i ∈ {1, · · · , n}
on a ||u(ei )|| = ||ei || = 1. On en déduit que la famille
(u(e1 ), u(e2 ), · · · , u(en )) est orthonormale. Puisque toute famille orthonormale
est libre, la famille (u(e1 ), u(e2 ), · · · , u(en )) est une famille libre de n vecteurs
en dimension n. On en déduit que cette famille est une base de E.
. Réciproquement, supposons que les familles (e1 , e2 , · · · , en ) et
(u(e1 ), u(e2 ), · · · , u(en )) soient deux bases orthonormales.
n
P
Soit x = xi ei ∈ E. Alors
i=1
n
X n
X
u(x) = u(xi ei ) = xi u(ei ) car u est linéaire .
i=1 i=1

Cette dernière égalité donne la décomposition du vecteur u(x) dans la base


(u(e1 ), u(e2 ), · · · , u(en )). Les bases considérées étant toutes deux orthonor-
n n
males, on a ||x||2 = x2i et ||u(x)||2 = x2i . Ce qui permet de conclure
P P
i=1 i=1
que ||u(x)|| = ||x||. Ainsi u est endomorphisme qui conserve la norme. Ce qui
justifie que u est une isométrie.

5.3.2 Matrices orthogonales


D ÉFINITION 5.3.2. (Matrice orthogonale)
Une matrice est dite orthogonale lorsqu’elle est la matrice d’une isométrie dans une
base orthonormale d’un espace euclidien.
Comme pour l’ensemble O(E) des isométries d’un espace euclidien E, l’ensemble
des matrices orthogonales d’ordre n, noté On (R), possède une structure de groupe.
Plus précisement, On (R) est un sous-groupe du groupe des matrices inversibles
(GLn (R), ×). Il est appélé le groupe orthogonal d’ordre n.
Considérons une isométrie u d’un espace euclidien (E, h., .i) de dimension n. Par
définition, pour tout couple de vecteurs (x, y) ∈ E 2 , on a
hu(x), u(y)i = hx, yi

Hippolyte HOUNNON, PhD 78 FAST/UAC


5.3. ISOMÉTRIES ET MATRICES ORTHOGONALES 79

Matriciellement cette relation se traduit par:

hU X, U Y iMn,1 (R) = hX, Y iMn,1 (R)

où les matrices X et Y correspondent respectivement aux matrices-colonnes des


systèmes de coordonnées des vecteurs x et y dans une base orthonormale de E, U
est la matrice de l’endomorphisme u dans cette base, et h., .iMn,1 (R) désigne le produit
scalaire canonique sur Mn,1 (R) définie par hX, Y iMn,1 (R) = X T Y .

P ROPOSITION 5.3.4. Soit M ∈ Mn (R) et soit (X, Y ) ∈ (Mn,1 (R))2 on a:

hM X, Y iMn,1 (R) = hX, M T Y iMn,1 (R)

Preuve: Considérons deux vecteurs x et y de Rn et une matrice


M ∈ Mn (R). Soit X et Y les matrices-colonnes des systèmes de coordonnées des
vecteurs x et y.
On a hM X, Y iMn,1 (R) = (M X)T Y = X T M T Y = hX, M T Y iMn,1 (R) .
Dans la pratique, étant donné une matrice U ∈ Mn (R), il n’est pas simple, à
l’aide de la définition précédente de vérifier si cette matrice est orthogonale ou non.
On va voir que les matrices orthogonales vérifient certaines propriétés les caractéris-
sant.
Étant donné une matrice orthogonale U , la proposition ? permet d’établir que pour
tout (x, y) ∈ (Rn )2 on a:

hX, U T U Y iMn,1 (R) = hU X, U Y iMn,1 (R) = hX, Y iMn,1 (R) .

avec X et Y les matrices-colonnes des systèmes de coordonnées des vecteurs x et y.


D’où on a:
hX, U T U Y − Y iMn,1 (R) = 0 ∀Y ∈ Mn,1 (K).
Le produit scalaire étant une forme bilinéaire définie, on en déduit que

∀ Y ∈ Mn,1 (K) (U T U )Y = IY

où I est la matrice identité. Autrement dit, U T U = I On vient ainsi de montrer que


toute matrice orthogonale U est une matrice inversible et que sa matrice inverse U −1
n’est rien d’autre que sa matrice transposée U T .
La proposition suivante montre que cette propriété caractérise les matrices orthogo-
nales.
P ROPOSITION 5.3.5. Pour U ∈ Mn (R) les assertions suivantes sont équivalantes:
(1) La matrice U est une matrice orthogonale;
(2) La matrice U est inversible et U −1 = U T ;

Hippolyte HOUNNON, PhD 79 FAST/UAC


5.3. ISOMÉTRIES ET MATRICES ORTHOGONALES 80

(3) Les vecteurs colonnes (resp. vecteurs lignes) de la matrice U forment une base
orthonormale pour le produit scalaire canonique de Rn .
Démonstration: L’implication (1) ⇒ (2) a été justifiée en préambule.
Désignons par (e1 , e2 , · · · , en ) la base canonique de Rn . Cette base est orthonormale
pour le produit scalaire canonique, i.e. hei , ej i = 0 si i 6= j et hei , ej i = 1.
. Supposons que l’assertion (2) soit vraie, c’est-à-dire supposons que la matrice U
est inversible et U −1 = U T . On a alors U T U = I.
Désignons par Ei , 1 ≤ i ≤ n la matrice colonne du système de coordonnées ei . Les
colonnes de la matrice U sont alors les U Ei . On obtient:
∀(i, j) ∈ {1, · · · , n}2 hU Ei , U Ej i = hEi , U T U Ej i = hEi , Ej i = δij .
On en déduit que la famille constituée des n vecteurs colonnes de U est aussi une
famille orthonormale.
Par conséquent c’est une famille libre de n vecteurs en dimension n. Ainsi c’est une
base de l’espace Rn . Ce qui justifie que les vecteurs colonnes de la matrice U forment
une base orthonormale de Rn . Le même raisonnement avec la matrice U T à la place
de U montre que les vecteurs lignes de U forment aussi une base orthonormale de
Rn . On a donc établit que (2) ⇒ (3).
. Supposons que l’assertion (3) soit vraie, et prouvons que la matrice U est une
matrice orthogonale. La décomposition d’un vecteur x de Rn dans la base canonique
n
P
(e1 , e2 , · · · , en ) sous la forme x = xi ei implique, par linéarité, que l’on a
i=1
n
! n
X X
UX = U xi Ei = xi U E i .
i=1 i=1

Les familles (e1 , e2 , · · · , en ) et (U E1 , U E2 , · · · , U En } étant toutes deux orthonor-


n n
2
x2i . Ainsi la matrice
P P
males, on en déduit que hx, xi = xi et que hU X, U Xi =
i=1 i=1
U conserve la norme. Par conséquent elle est orthogonale.
E XEMPLE 5.3.1. On considère la matrice
 √ √ 
2/√6 0√ 1/ √3
U =  1/ √6 1/√2 −1/√ 3 
−1/ 6 1/ 2 1/ 3
Prouver que U est une matrice orthogonale puis en déduire son inverse.
P ROPOSITION 5.3.6. Le déterminant d’une matrice orthogonale vaut +1 ou −1.
Démonstration: Considérons une matrice orthgonale U . Puisque U T U = I, on a
det(U T U ) = det(U T )det(U ) = (det(U ))2 = 1. On en déduit que det(U ) = 1 ou
que det(U ) = −1 car det(U ) ∈ R puisque U ∈ Mn (R).

Hippolyte HOUNNON, PhD 80 FAST/UAC


5.3. ISOMÉTRIES ET MATRICES ORTHOGONALES 81

R EMARQUE 5.3.1. L’ensemble des matrices orthogonale de déterminant +1 est noté


SOn (R); c’est un sous-groupe de (On (R), ×) qui est appélé groupe spécial orthog-
onal.

5.3.3 Description géométrique des isométries


On dispose maintenant de deux points de vues concernant les isométries: le point
de vue des applications linéaires où une isométrie est un endomorphisme conser-
vant le produit scalaire; le point de vue matricielle où la matrice d’une isométrie
est une matrice orthogonale. On va s’intéresser au point de vue géométrique, tout
d’abord dans le cas du plan R2 puis dans le cas d’un espace vectoriel de dimension 3.

D ÉFINITION 5.3.3. Soit u une isométrie d’un espace euclidien.


• On dit que u est une isométrie directe si son déterminant vaut +1;
• On dit que u est une isométrie indirecte si son déterminant vaut −1.
Cas de la dimension 2
La troisième assertion de la proposition 5.3.4 indique que toutes les isométries du
plan R2 s’écrivent matriciellement sous la forme
 2
   a + b2 = 1
a b
U= avec c2 + d2 = 1
c d
ac + bd = 0

Les deux premières égalités indiquent qu’il existe (θ, φ) ∈ [0, 2π[2 tel que a =
cos(θ), b = sin(θ), c = cos(φ) et d = sin(φ). En utilisant la dernière égalité, on a
φ = θ ± π/2(mod2π). La matrice U est donc l’une des deux formes suivantes:
   
cos(θ) −sin(θ) cos(θ) sin(θ)
Rθ = ou Sθ = .
sin(θ) cos(θ) sin(θ) −cos(θ)
Dans le premier cas, on a det(Rθ ) = +1 alors que dans le second cas, on a
det(Sθ ) = −1.
Notons que les matrices Sθ possèdent toujours deux valeurs propres réelles distinctes
(1 et −1). La matrice Sθ est donc diagonalisable et s’écrit dans une base de vecteurs
propres:  
1 0
0 −1
On déduit de cette étude le résultat suivant:
T HÉORÈME 5.3.1. Les isométries directes du plan (ou rotations du plan) ont pour
matrice  
cos(θ) −sin(θ)
Rθ = avec θ ∈ [0, 2π[,
sin(θ) cos(θ)

Hippolyte HOUNNON, PhD 81 FAST/UAC


5.3. ISOMÉTRIES ET MATRICES ORTHOGONALES 82

et les matrices des isométries indirectes du plan sont semblables à la matrice


 
1 0
S=
0 −1
Géométriquement, les isométries indirectes correspondent à des symétries orthog-
onales par rapport à une droite vectorielle. Cette droite peut être déterminée en trou-
vant l’espace propre associé à la valeur propre +1.
E XEMPLE 5.3.2. Considérons l’endomorphisme u de l’espace vectoriel R2 dont la
matrice dans la base canonique (e1 , e2 ) de R2 est
 
1 1 1
A=√
2 1 −1
On vérifie aisément que la matrice A est orthogonale (par exemple en vérifiant que
les deux colonnes de cette matrice forment une base orthonormale de R2 ). Par con-
séquent, l’endomorphisme est une isométrie. Puisque le déterminant de A vaut −1,
il s’agit d’une isométrie indirecte.
2
Recherchons
  base de R dans laquelle la matrice de u est égale à la matrice
une
1 0
S= . Pour cela, on diagonalise la matrice A. Un vecteur propre associé
0 −1

à la valeur propre 1 est le vecteur ε1 = (1, √2 − 1) et un vecteur propre associé à la
valeur propre −1 est le vecteur ε2 = (1, − 2 − 1). Ainsi, dans la base (ε1 , ε2 ), la
matrice de l’endomorphisme u vaut:
 
1 0
0 −1
Si on désigne par x1 et x2 les deux composantes d’un vecteur x ∈ R2 dans la base
(ε1 , ε2 ), alors on a
u(x) = u(x1 ε1 + x2 ε2 ) = x1 u(ε1 ) + x2 u(ε2 ) = x1 ε1 − x2 ε2
L’application u est la symétrie par rapport à la droite vectoriel dirigée par le vecteur
ε1 .
Cas de la dimension n=3

T HÉORÈME 5.3.2. Soit u une isométrie d’un espace euclidien E de dimension 3, il


existe une base orthonormée de E dans laquelle la matrice de u a l’une des formes
suivantes:
   
1 0 0 −1 0 0
 0 cos(θ) −sin(θ)  ou  0 cos(θ) −sin(θ) 
0 sin(θ) cos(θ) 0 sin(θ) cos(θ)
avec θ ∈ [0, 2π[.

Hippolyte HOUNNON, PhD 82 FAST/UAC


5.4. DIAGONALISATION DES MATRICES SYMÉTRIQUES RÉELLES 83

R EMARQUE 5.3.2. On peut déterminer la valeur de l’angle θ en calculant la trace de


l’isométrie 1 ; on a T r(u) = 2cos(θ) + 1, ce qui permet d’obtenir la valeur de cos(θ).
On détermine l’angle θ en connaissant le signe de sin(θ). Celui-ci est donné par le
signe du déterminant de la famille de trois vecteurs (e1 , x, u(x)) où e1 est le vecteur
propre de u associé à la valeur propre 1 (ce vecteur est appélé l’axe de l’isométrie)
et x un vecteur non colinéaire à l’axe de cette isométrie.
R EMARQUE 5.3.3. Considérons la matrice
 √ √ 
2/√6 0√ 1/ √3
U =  1/ √6 1/√2 −1/√ 3 
−1/ 6 1/ 2 1/ 3

On a vu que la matrice U est une matrice orthogonale. On a det(U ) = 1 ce qui


montre que la matrice U est la matrice d’une rotation.
L’axe de cette rotation est l’ensemble des vecteurs invariants par cette rotation;
autrement dit l’axe de la rotation correspond à l’espace propre associé à la valeur
propre +1. En résolvant le système U X = X, on établit que ce vecteur propre est
√ √ √ √ √
e1 = (1, ( 2 + 1)( 3 − 2), 3 − 2)

. Pour déterminer
√ √ l’angle θ de la rotation, on utilise la √ √de la matrice U ; on a
√ trace
2+ √2+ 3 2+ 2+√ 3− 6
T r(U ) = 6
= 2cos(θ) + 1 d’où cos(θ) = 2 6
. Comme le vecteur
x = (1, 0, 0) n’est pas colinéaire à e1 , le signe de sin(θ) est celui du déterminant de
la famille {e1 , x, u(x)}. On a 2

1 1 2/ √
√ √ √ √6 1+ 2 √ √
det(e1 , x, u(x)) = ( 2 +√1)( √ 3 − 2) 0 1/ √6 = √ ( 3 − 2).
3
3− 2 0 −1/ 6

Ce déterminant étant√ positif,


√ √
on a sin(θ) > 0 donc θ ∈]0, π[ et par conséquent la
√ √ √
2+ 2+√ 3− 6 2+ 2+√ 3− 6
relation cos(θ) = 2 6
implique θ = Arccos( 2 6
) ' 56, 6

5.4 D IAGONALISATION DES MATRICES SYMÉTRIQUES RÉELLES


P ROPOSITION 5.4.1. Toutes les valeurs propres d’une matrice symétrique à coeffi-
cients réels sont des réels.
D ÉMONSTRATION: Toute matrice à coefficients réels admet au moins 3 une valeur
propre dans C. Considérons λ ∈ une valeur propre complexe d’une matrice symétrique
1
La trace d’un endomorphisme est la trace de n’importe quelle,matrice représentant cet endomorphisme.
2
La valeur de ce déterminant est obtenue rapidement en développant selon la deuxième colonne.
3
En effet, par définition, une valeur propre est une racine du polynôme caractéristique et on sait que tout polynôme
réel admet au moins une racine dans C

Hippolyte HOUNNON, PhD 83 FAST/UAC


5.4. DIAGONALISATION DES MATRICES SYMÉTRIQUES RÉELLES 84

réelle M ∈ M(R). Prouvons que λ = λ.


Soit z ∈ Kn \ {0} un vecteur propre associé à la valeur propre λ; on a
M Z = λZ. (5.4)
On obtient:
T T
Z M Z = λ Z Z et Z T M T = λZ T (5.5)
Puisque la matrice M est symétrique, on en déduit Z T M = λZ T . En prenant le
T T
conjugué de cette égalité, on a: Z M = λZ . La matrice M étant réelle, on obtient
T T
Z M = λ Z . Enfin, en multipliant cette égalité par Z à droite, on a:
T T
Z MZ = λ Z Z (5.6)
T T
Les relations 5.5 permettent d’affirmer que λZ Z = λ Z Z. Puisque Z T =
T
(z1 , · · · , zn ) est non mul, on a Z Z = |z1 |2 + · · · + |zn |2 6= 0. On en déduit donc
que λ = λ, autrement dit λ ∈ R.
P ROPOSITION 5.4.2. Les sous-espaces propres d’une matrice symétrique à coeffi-
cients réels sont deux à deux orthogonaux 4
D ÉMONSTRATION: Soient λ et µ deux valeurs propres distinctes de la matrice
M ; d’après la proposition précédente, ces valeurs propres sont réelles. Considérons
deux sous-espaces propres Eλ et Eµ associés respectivement aux deux valeurs λ et
µ. Pour montrer que Eλ est orthogonal à Eµ , il faut montrer que pour tous X ∈ Eλ
et Y ∈ Eµ on a hX, Y iMn,1 (R) = 0, c’est-à-dire Y T X = 0.
La matrice M étant symétrique on a Y T M X = (X T M Y )T . Or, par définition d’un
sous-espace propre, on a M X = λX et M Y = µY . Cela implique que
λ Y T X = µ (X T Y )T , c’est-à-dire que (λ − µ)Y T X = 0. Puisque λ − µ 6= 0, on
en conclut que Y T X = 0.
T HÉORÈME 5.4.1. Toute matrice symétrique réelle est diagonalisable dans une base
orthonormale. Autrement dit, si M ∈ Sn (R) alors il existe une matrice orthogonale
P ∈ On (R) telle que P −1 M P soit une matrice diagonale réelle.
I NDICATIONS: On procède par récurrence sur l’ordre n de la matrice M .
 
16 −12
E XEMPLE 5.4.1. La matrice A = est une matrice symétrique réelle,
−12 9
elle est par conséquent diagonalisable dans une base orthonormale. Pour diago-
naliser la matrice A, commençons par chercher ses valeurs propres. Le polynôme
caractéristique P de A est donné par
 
16 − λ −12
P (λ) = det(A − λId) = det = λ(λ − 25).
−12 9 − λ
4
L’orthogonalité fait ici référence au produit scalaire canonique de Rn , n étant la taille de la matrice consid́érée.

Hippolyte HOUNNON, PhD 84 FAST/UAC


5.4. DIAGONALISATION DES MATRICES SYMÉTRIQUES RÉELLES 85

Les valeurs propres de A sont λ1 = 0 et λ2 = 25.


Pour déterminer la matrice de passage orthogonale, calculons les espaces propres
associés à λ1 et 
λ2 . L’espace
   associé à λ1 est l’ensemble des vecteurs x =
propre
x x
(x, y) tel que A = λ1 . Ce qui donne ici 16x − 12y = 0. L’espace
y y
propre associé à la valeur propre λ1 est donc engendré par v1 =(3, 4). Afin d’obtenir
une matrice de passage orthogonale, considérons un vecteur colinéaire à v1 et de
norme 1:
v1 3 4
e1 = =( , )
||v1 || 5 5
Pour calculer le second vecteur propre, on peut soit procéder comme pour le premier
vecteur propre, soit utiliser le fait que la matrice de passage (c’est-à-dire la matrice
formée par les vecteurs propres associés aux deux valeurs propres) doit être orthog-
onale. En utilisant cette seconde méthode,on établit qu’un vecteur orthogonal à v1
et de norme 1 est donné par e2 = − 45 , 35 . La matrice A s’écrit A = P D P T avec
 3 4


P = 54 3 5
5 5

E XERCICE 5.4.1. Considérons la matrice symétrique réelle


 
7 2 −2
M =  2 4 −1 
−2 −1 4
1. Déterminer le polynôme caractéristique de M .
2. Trouver le sous-espace propre assocé à chacune des valeurs propres.
3. Justifier que M est diagonalisable sur R puis diagonaliser la avec une matrice
de passage orthogonale.
4. La matrice M est-elle orthogonale? Justifier votre réponse.

Hippolyte HOUNNON, PhD 85 FAST/UAC

Vous aimerez peut-être aussi