Académique Documents
Professionnel Documents
Culture Documents
P ROPOSITION 1.1.1.
Soit E un espace vectoriel de dimension n sur K et soit (e1 , e2 , · · · , en ) une base de
E. Soit (e∗1 , · · · , e∗n ) la famille d’éléments de E ∗ définie par:
0 si i 6= j
∀ (i, j) ∈ {1, · · · , n}2 e∗i (ej ) = δij = (Symbole de Kronecker)
1 si i = j
Alors cette famille est une base de E ∗ . Elle est appelée base duale de la base
(e1 , e2 , · · · , en ).
Démonstration: Soit f ∈ E ∗ et x ∈ E. alors il existe (λ1 , · · · , λn ) ∈ Kn tel que
n
X
x= λi ei
i=1
1
1.1. ESPACE DUAL D’UN ESPACE VECTORIEL 2
n
! n
X X
Ainsi f (x) = f λi ei = λi f (ei ) car f ∈ L(E, K)
i=1 i=1
n
X n
X
= f (ei )λi = f (ei )e∗i (x)
i=1 i=1
Xn
d’où f = f (ei )e∗i
i=1
n
X
∀j ∈ bd1, nce, e∗j (x) = xi e∗j (ei ) = xj
i=1
n
e∗i (x)ei .
P
Ainsi pour tout x ∈ E, x =
i=1
n
∗
f (ei )e∗i .
P
3. Pour tout f ∈ E , on a: f =
i=1
P ROPOSITION 1.1.2.
Soit E un espace vectoriel de dimension finie n sur K et
B = (e1 , · · · , en ) et B 0 = (e01 , · · · , e0n ) deux bases de E.
Posons P = PB,B0 et Q = PB∗ ,(B0 )∗ .
Alors Q = (P −1 )T .
Démonstration: Soit l ∈ bd1, nce. Alors il existe (p01l , p02l , · · · , p0nl ) ∈ Kn
n n
et (q1l , q2l , · · · , qnl ) ∈ Kn tels que el = p0kl e0k et (e0l )∗ = qkl (ek )∗ .
P P
k=1 k=1
Alors on a: P −1 = (p0ij )1≤i,j≤n et Q = (qij )1≤i,j≤n .
De plus pour tout (i, j) ∈ bd1, nce2 , on a:
n n
(e0j )∗ (ei ) = (e0j )∗ [ p0ki e0k ] = p0ki (e0j )∗ (e0k ) = p0ji .
P P
k=1 k=1
n
n
Aussi a-t-on (e0j )∗ (ei ) = qkj (ek )∗ (ei ) = qkj (ek )∗ (ei ) = qij .
P P
k=1 k=1
En somme pour tout (i, j) ∈ bd1, nce2 , on a: p0ji = qij , soit Q = (P −1 )T .
Exercice d’application 1.1.1. Soit C = (e1 , e2 , e3 ) la base canonique. On considère
les vecteurs
u1 = (1, −1, 1)
u = (1, 0, 1)
2
u3 = (0, 2, −1)
de R3 .
Prouver que B = (u1 , u2 , u3 ) est une base de R3 puis déterminer sa base duale.
D ÉFINITION 1.1.2.
On appelle bidual de E et on notera E ∗∗ , l’espace (E ∗ )∗ dual de E ∗ .
P ROPOSITION 1.1.3.
Soit E un espace vectoriel sur K. Alors:
1. L’application
Φ : E −→ E ∗∗
x 7−→ x̃
où x̃ : E ∗ → K, ϕ 7→ x̃(ϕ) = ϕ(x)
est linéaire injective.
2. Si dim E est finie, l’application précédente est un isomorphisme.
Démonstration:
1. Pour tout x ∈ E l’application
x̃ : E ∗ −→ K
ϕ 7−→ ϕ(x) est linéaire.
En effet soit (ϕ1 , ϕ2 ) ∈ E ∗ × E ∗ et α ∈ K.
P ROPOSITION 1.1.4.
Soient E et F des K-espaces vectoriels. Soit f ∈ L(E, F ). L’application
Φf : F ∗ −→ E ∗
ϕ 7−→ ϕ ◦ f
(g ◦ f )T = f T ◦ g T et (IdE )T = IdE ∗
Démonstration: On a:
f g gT fT
E −→ F −→ G, G∗ −→ F ∗ −→ E ∗
Soit ϕ ∈ L(G, K). Alors:
f T ◦ g T (ϕ) = f T g T (ϕ)
= f T (ϕ ◦ g)
= (ϕ ◦ g) ◦ f
= ϕ ◦ (g ◦ f )
= (g ◦ f )T (ϕ)
d’où (g ◦ f )T = f T ◦ g T .
Soit ψ ∈ L(E, K). Alors
P ROPOSITION 1.1.6.
Soit E, F deux K-espaces vectoriels de bases respectives B = (e1 , · · · , em ) et
C = (e01 , · · · , e0n ) et soit f ∈ L(E, F ).
Posons A = M atB,C (f ) et B = M atC ∗ ,B∗ (f T ).
Alors B = AT .
Démonstration: Posons A = (aij )1≤i≤m, 1≤j≤n et B = (bij )1≤i≤m,1≤j≤n .
Pour tout j ∈ bd1, nce, on a:
m
∗
X
(f T
)(e0j ) = bij e∗i
i=1
d’où bkj = ajk pour tout (k, j) ∈ bd1, mce × bd1, nce. Ainsi B = AT .
C OROLLAIRE 1.1.2.
Soit A ∈ Mn,m (K) et B ∈ Mm,P (K). Alors
(AB)T = B T AT
2. Soit A ⊂ E.
L’ensemble {ϕ ∈ E ∗ / ∀ a ∈ A, ha, ϕi = 0} noté A⊥ , est appelée l’orthogonal
de A.
Soit A ⊂ E ∗ . On appelle orthogonal de A, et on note ⊥ A, le sous-ensemble de E
défini par:
⊥
A = {x ∈ E/ ∀ϕ ∈ A, hx, ϕi = 0}.
E XEMPLE 1.2.1.
4
1. E = R4 et A = {(1, 0, 0, 0), (1, 2, 3, 4)}. Soit ϕ = αi e∗i avec (α1 , · · · , α4 ) ∈
P
i=1
R4 et (e1 , · · · , e4 ) base canonique de R4 et (e∗1 , · · · , e∗4 ) base duale de (e1 , · · · , e4 )
⊥ he1 , ϕi = 0
ϕ∈A ⇔
he1 + 2e2 + 3e3 + 4e4 , ϕi = 0
α1 = 0
⇔ P4
iαi = 0
i=1
α1 = 0
⇔ P4
iαi = 0
i=2
α1 = 0
⇔
α2 = − 12 (3α3 + 4α4 )
P ROPRIÉTÉS 1.2.1.
Soit E un K-espace vectoriel et A ⊂ E, et B ⊂ E.
P1 : A ⊂ B, B ⊥ ⊂ A⊥
P2 : A ⊂ ⊥ (A⊥ )
P3 : A⊥ est sous-espace vectoriel de E ∗ et A⊥ = (V ect(A))⊥ .
En particulier, si F est un sous-espace vectoriel de E de base (e1 , e2 , · · · , er )
et ϕ ∈ E ∗ , on a:
ϕ ∈ F ⊥ ⇐⇒ ∀ i ∈ bd1, rce, ϕ(ei ) = 0.
P4 : Si F et G sont deux sous-espaces vectoriels de E alors (F + G)⊥ = F ⊥ ∩ G⊥ .
P5 : F sous-espace vectoriel de E.
F = {0E } ⇔ F ⊥ = E ∗ , F = E ⇔ F ⊥ = {0E ∗ }.
Les propriétés P1 , P2 , P3 , P4 sont analogues dans E ∗ et pour ⊥ ( ).
Démonstration: P5 : Si F = {0E } on a F ⊥ = {ϕ ∈ E ∗ / ϕ(0E ) = 0} = E ∗ .
Si F 6= {0E }, alors il existe x ∈ F \ {0E }. On a donc x̃ 6= 0. Par suite il existe
ϕ ∈ E ∗ tel que ϕ(x) 6= 0. Ainsi ϕ ∈
/ F ⊥ . Par conséquent E ∗ 6= F ⊥ .
Si F = E on a F ⊥ = {ϕ ∈ E ∗ / ∀ x ∈ E ϕ(x) = 0} = {0E ∗ }
Si F 6= E soit x ∈ E \ F et soit G un supplémentaire de F ⊕ Kx dans E. On a
E = F ⊕ Kx ⊕ G.
On considère l’application ϕ : E → K, f + λx + g 7→ λ.
On prouve facilement que ϕ 6= 0E ∗ et ϕ ∈ F ⊥ . Donc F ⊥ 6= {0E ∗ }.
T HÉORÈME 1.2.1.
On suppose E de dimension finie n. Soit F et G des sous-espaces vectoriels supplé-
mentaires dans E (on a donc E = F ⊕ G). Alors on a:
1. E ∗ = F ⊥ ⊕ G⊥
dim(F ⊥ ) = n − dim(F )
2.
dim(G⊥ ) = n − dim(G)
Démonstration:
1. Supposons que E = F ⊕ G
Si F = {0E } alors G = E Ainsi F ⊥ = E ∗ et G⊥ = {0E ∗ }.
Or E ∗ = E ∗ ⊕ {0E ∗ } = F ⊥ ⊕ G⊥ .
Ainsi si l’un des sous-espaces vectoriels est réduit au vecteur nul, on a le résul-
tat.
Supposons qu’aucun des sous-espaces vectoriels F et G n’est réduit au vecteur
nul.
Soient (e1 , · · · , er ) une base de F, et (er+1 , · · · , en ) une base de G.
Soit (e∗1 , · · · , e∗n ) la base de E ∗ duale de la base (e1 , · · · , en ) de E.
n
yi e∗i ∈ E ∗ avec (y1 , · · · , yn ) ∈ Kn . Alors on a:
P
Soit f =
i=1
C OROLLAIRE 1.2.2.
On suppose que E est de dimension finie, et soit F un sous-espace vectoriel de E ∗ .
On a:
F = {0E ∗ } ⇐⇒ ⊥ F = E
F = E ∗ ⇐⇒ ⊥ F = {0E }
R EMARQUE 1.2.1.
La première équivalence peut se démontrer directement en dimension quelconque
ainsi que la partie directe de la seconde.
C OROLLAIRE 1.2.3.
On suppose E de dimension finie.
1. Si F est un sous-espace vectoriel de E on a ⊥ (F ⊥ ) = F .
Si F est un sous-espace vectoriel de E ∗ on a (⊥ F)⊥ ) = F.
2. Si F et G sont des sous-espaces vectoriels de E, on a:
F ⊆ G ⇐⇒ G⊥ ⊆ F ⊥
(F ∩ G)⊥ = F ⊥ + G⊥
3. Si F et G sont des sous-espaces vectoriels de E ∗ , on a:
F ⊆ G ⇐⇒ ⊥ G ⊆ ⊥ F
⊥
(F ∩ G) =⊥ F +⊥ G
Démonstration:
1. On a F ⊆ ⊥ (F ⊥ ) avec dimF = dim⊥ (F ⊥ )
(démonstration analogue pour F).
2. F ⊆ G =⇒ G⊥ ⊆ F ⊥ et G⊥ ⊆ F ⊥ =⇒ ⊥ (F ⊥ ) ⊆ ⊥ (G⊥ )
| {z } | {z }
F G
(démonstration analogue pour F et G).
3. Pour montrer qu’on a (F ∩ G)⊥ = F ⊥ + G⊥ , il est donc suffisant de montrer
que F ∩ G =⊥ (F ⊥ + G⊥ ).
Or on a ⊥ (F ⊥ + G⊥ ) =⊥ (F ⊥ ) ∩ ⊥ (G⊥ ) = F ∩ G
P ROPOSITION 1.2.2.
Soit E un K-espace vectoriel de dimension finie non nulle et H un sous-espace vec-
toriel de E.
Les assertions suivantes sont équivalentes:
1. H est un hyperplan
2. ∀ a ∈ E − H, E = H ⊕ Ka
3. ∃ a ∈ E − H, E = H ⊕ Ka
4. ∃ ϕ ∈ E ∗ − {0E ∗ } / Kerϕ = H
Preuve: (1) ⇒ (2)
Comme E est de dimension non nulle alors E n’est réduit au vecteur nul. Par
suite E − H est non vide. Ainsi pour tout a ∈ E − H, H ∩ Ka = {0E } et
dimH + dimKa = dimE d’où E = H ⊕ Ka
(2) ⇒ (3) évident
(3) ⇒ (4) Soit ψ : H + Ka −→ K
h + ka 7−→ k
On prouve facilement que ψ est linéaire et Kerψ = H. Ainsi on choisit ϕ = ψ
(4) ⇒ (1) Utilisant le théorème du rang on a le résultat (bon execice de maison).
1.3 Exercices
Exercice 1
g(x, y) = x, h(x, y) = 2x − 6y
Exercice 3
Exercice 4
Exercice 5
Soient E un K espace vectoriel et ϕ, ψ deux formes linéaires sur E telles que ker(ϕ) ⊂
ker(ψ).
1. Prouver qu’il existe α ∈ K tel que ψ = αϕ.
2. Prouver que si ψ est non nulle alors ker(ϕ) = ker(ψ).
Exercice 6
Soient E un K espace vectoriel de dimension finie non nulle n et (ϕi )1≤i≤n une
famille d’éléments de E ∗ . n
∗
T
Démontrer que (ϕi )1≤i≤n est une base de E si et seulement ker(ϕi ) = {0}.
i=1
Déterminant
14
2.1. APPLICATIONS MULTILINÉAIRES 15
Preuve
Il est facile de prouver que Lp (E1 × · · · × Ep , F ) est un s.e.v de F E1 ×···×Ep .
ϕ(uσ(1) , . . . , uσ(i) , . . . , uσ(j) , . . . , uσ(p) ) = ϕ(ut1 [(t2 ◦···◦tk )(1)] , . . . , ut1 [(t2 ◦···◦tk )(p)] )
= (−1)1 ϕ(u(t2 ◦···◦tk )(1) , . . . , u(t2 ◦···◦tk )(p) )
= (−1)2 ϕ(u(t3 ◦···◦tk )(1) , . . . , u(t3 ◦···◦tk )(p) )
.. ..
. .
= (−1)k ϕ(u1 , . . . , up ) (de façon itérée)
ϕ(uσ(1) , . . . , uσ(i) , . . . , uσ(j) , . . . , uσ(p) ) = ε(σ)ϕ(u1 , . . . , up ).
(⇐) Supposons que
∀σ ∈ Sp , ∀(u1 , . . . , up ) ∈ E p , ϕ(uσ(1) , . . . , , uσ(p) ) = ε(σ)ϕ(u1 , . . . , up )
Soit (i, j) ∈ [|1, p|]2 tel que i < j et soit (u1 , . .
. , up ) ∈ E p tel que ui = uj .
i si l=j
Considérons la transposition σ définie par σ(l) = j si l=i .
l si l 6= i et l 6= j
Alors
C OROLLAIRE 2.1.1.
Si p > dim(E), alors la seule forme p-linéaire et alternée de E est l’application
nulle.
Indication: Toute famille de tels p éléments de E est liée.
2.2 Déterminant
2.2.1 Déterminant d’une famille de n-vecteurs dans une base d’un e.v de di-
mension n
Soit n ∈ N − {0, 1} et E un K-e.v de dimension n.
T HÉORÈME ET D ÉFINITION 2.2.1.
Soit B = (e1 , e2 , . . . , en ) une base de E.
L’application: detB : E n → K, (v1 , . . . , vn ) 7−→
P
ε(σ)aσ(1)1 aσ(2)2 . . . aσ(n)n
σ∈Sn
n
P
avec vj = aij ei et aij ∈ K pour tout j ∈ [|1, n|],
i=1
est une forme n-linéaire alternée, et le scalaire detB (v1 , . . . , vn ) est appelé déter-
minant de la famille(v1 , . . . , vn ) dans la base B.
Preuve: En Exercice .
E XEMPLE 2.2.1. 1. Soit V1 = (a11 , a21 ) et V2 = (a12 , a22 ) deux vecteurs de R2
muni de la base canonique C2 .
detC2 (v1 , v2 ) =?.
On a deux
permutations
de {1, 2}:
1 2 1 2
σ1 = et σ2 =
1 2 2 1
ε(σ1 ) = 1 et ε(σ2 ) = −1
detC2 (v1 , v2 ) = a11 a22 − a21 a12 .
2. Soit u1 = (a11 , a21 , a31 ), u2 = (a12 , a22 , a32 ) et u3 = (a13 , a23 , a33 ) trois
vecteurs du R − e.v R3 muni de sa base canonique C3 .
On a 6permutations de {1, 2, 3} :
1 2 3 1 2 3 1 2 3
σ1 = , σ2 = = (12), σ3 = = (13),
1 2 3 2 1 3 3 2 1
1 2 3 1 2 3
σ4 = = (23), σ5 = = (123),
1 3 2 2 3 1
1 2 3
σ6 = = (132) = (13)(32).
3 1 2
detC2 (u1 , u2 , u3 ) = a11 a22 a33 − a21 a12 a33 − a31 a22 a13 − a11 a32 a23 + a21 a32 a13 +
a31 a12 a23 .
ϕ = ϕ(B)detB .
Preuve
1. Soit ϕ ∈ Λn (E), soit (B, S) ∈ B(E) × E n .
Comme Λn (E) = V ect(detB ), alors il existe α ∈ K tel que ϕ = αdetB ;
d’où ϕ(S) = αdetB (S) et ϕ(B) = αdetB (B) = α. car detB (B) = 1.
Par suite ϕ(S) = ϕ(B)detB (S).
2. Soit (B, B 0 ) ∈ B(E) × B(E).
En prenant ϕ = detB0 dans 1. on a: detB0 (S) = detB0 (B)det(B) (S), ∀S ∈ E n .
3. Soit (B, B 0 ) ∈ B(E)×B(E). D’après 2. on a: 1 = detB0 (B 0 ) = detB0 (B).detB (B 0 ).
1
D’où detB (B 0 ) = .
detB0 (B)
Hippolyte HOUNNON, PhD 18 FAST/UAC
2.2. DÉTERMINANT 19
1. Soit B ∈ B(E)
detB (IdE ) = detB (B) = 1.
2. Soit f ∈ L(E), B = (e1 , e2 , . . . , en ) ∈ B(E) et S = (v1 , v2 , . . . , vn ) ∈ E n
n
aij j eij avec aij j ∈ K pour tout (ij , j) ∈ [|1, n|]2 .
P
Posons vj =
ij =1
n
P n
P
detB (f (S)) = detB (f (v1 ), . . . , f (vn )) = detB ( ai1 1 f (ei1 ), . . . , ain n f (ein ))
i1 =1 in =1
2
tous les termes detB (f (ek1 ), . . . , f (ekn )), où il existe (i, j) ∈ [|1, n|] tel que
i 6= j mais ki = kj , sont nuls car detB est une forme n-linéaire alternée. Ainsi
on peut conclure que seuls les termes detB (f (ek1 ), . . . , f (ekn )), avec
ki 6= kj si i 6= j sont éventuellement non nul et correspondent exactement aux
termes detB (f (eσ(1) ), f (eσ(2) ), . . . , f (eσ(n) ) lorsque σ parcourt Sn . Ainsi
P
detB (f (S)) = aσ(1)1 aσ(2)2 , . . . , aσ(n)n detB (f (eσ(1) ), f (eσ(2) ), . . . , f (eσ(n) ))
σ∈S
P n
4.
det(αf ) = detB (αf (B))
= detB (αf (e1 ), . . . , αf (en ))
= αn detB (f (e1 ), . . . , f (en )) car det est n-linéaire
= αn det(f ).
5.
det(gof ) = det(g(f (e1 )), . . . , g(f (en )))
= det[g(f (B)]
= det(g) × det(f (B)) (Propriété 2.2.1 (2)) .
= det(g) × det(f ).
6. Soit f ∈ L(E)
7. Soit f ∈ L(E)
det(AT ) =
P
ε(σ)a1σ(1) a2σ(2) . . . anσ(n)
σ∈S
Pn
= ε(σ)aσ−1 [σ(1)]σ(1) aσ−1 [σ(2)]σ(2) . . . aσ−1 [σ(n)]σ(n)
σ∈Sn
aσ−1 [σ(1)]σ(1) aσ−1 [σ(2)]σ(2) . . . aσ−1 [σ(n)]σ(n) = aσ−1 (1)1 aσ−1 (2)2 . . . aσ−1 (n)n
b ··· b a
2.3 Exercices
Exercice 1
1 cos a cos 2a
Calculer le déterminant: 1 cos b cos 2b
1 cos c cos 2c
(On mettra le résultat en produit de facteurs.)
Exercice 2
(com(A))T .A = det(A)In
Exercice 3
Exercice 4
Soit (a, b, c, d) ∈ C4 .
Prouver sans développer que le déterminant suivant est nul:
a2 (a + 1)2 (a + 2)2 (a + 3)2
b2 (b + 1)2 (b + 2)2 (b + 3)2
c2 (c + 1)2 (c + 2)2 (c + 3)2
d2 (d + 1)2 (d + 2)2 (d + 3)2
Exercice 5
Soit α ∈ C et
1 α 0... 0
0 ... ...
... 0
M =
.. ... ...
... 0
∈ Mn (C)
.
0 ··· 0 1 α
α 0 ··· 0 1
1. Calculer det(M )
2. Déterminer le rang de M .
Exercice 6
25
3.1. ELÉMENT PROPRES D’UN ENDOMORPHISME 26
C OROLLAIRE 3.1.1. .
0 est valeur propre de f ⇐⇒ f n’est pas injectif ⇐⇒ Kerf 6= {0E }.
Démonstration:
Soit x un vecteur du sous espace vectoriel Eλ1 + Eλ2 + · · · + Eλp .
Par définition, il existe (x1 , x2 , · · · , xp ) ∈ Eλ1 × Eλ2 × · · · × Eλp tel que
x = x1 + x2 + · · · + xp (3.1)
Q
= (λj − λi )
1≤i<j≤p
qui est non nul puisque les λk , 1 ≤ k ≤ p sont deux à deux distincts.
Le système est donc de CRAMER. Ainsi, il existe un unique (x1 , x2 , · · · , xp ) solu-
tion de (S); ce qui justifie l’unicité de la décomposition de (3.1).
C OROLLAIRE 3.1.2. Un système de p vecteurs propres associés à p valeurs pro-
pres λ1 , λ2 , · · · , λp deux à deux distinctes est un sytème libre.
En conséquence si B1 , B2 , · · · , Bp désignent des familles libres de vecteurs pro-
pres de Eλ1 , Eλ2 , · · · , Eλp respectifs, alors la famille obtenue par la réunion de ses
familles libres est aussi une famille libre de E.
C OROLLAIRE 3.1.3. .
0 ∈ SpIK (A) ⇐⇒ detA = 0
⇐⇒ A non inversible.
On déduit alors que:
A est inversible ⇐⇒ 0 ∈
/ Sp (A)
T HÉORÈME ET D ÉFINITION 3.1.1. L’application λ 7→ det(A − λI) est une fonction
polynôme, à cœfficients dans IK, de degré n.
On peut prouver que
Ainsi le plynôme (−1)n X n +(−1)n−1 T r(A)X n−1 +· · ·+det(A) est appelé polynôme
caractéristique de A,
D ÉFINITION 3.1.4. L’équation PA (λ) = 0 s’appelle équation caractéristique as-
sociée à la matrice A.
R EMARQUE 3.1.2. SpK (A) est alors l’ensemble des solutions de l’équation carac-
téristique PA (λ) = 0.
Question: Les valeurs propres d’un endomorphisme dépendent-elles de la base
choisie?
Réponse: Soit B 0 une autre base de E et B la matrice de f dans B 0 . On a alors
2 1 0
2. Soit la matrice B = 0 1 −1
0 2 4
B est-elle diagonalisable sur R ?
3.2.2 Trigonalisation
D ÉFINITION 3.2.2. Soit E un IK−espace vectoriel de dimension finie.
Un endomorphisme f est dit trigonalisable (ou triangularisable) sur IK s’il existe
une base de E relativement à laquelle la matrice de f est triangulaire.
Trigonaliser f c’est donc trouver une telle base.
D ÉFINITION 3.2.3. (Version matricielle)
Une matrice A de Mn (IK) est trigonalisable (ou triangularisable) sur IK si elle est
semblable à une matrice triangulaire (c’est-à-dire s’il existe une matrice
P ∈ Mn (IK) inversible et une matrice triangulaire T ∈ Mn (IK) vérifiant:
T = P −1 AP .
Trigonaliser A c’est donc trouver la matrice T
Nous admettons les résultats suivants:
P ROPOSITION 3.2.2. Soit E un IK−espace vectoriel de dimension finie.
Un endomorphisme de E est dit trigonalisable si et seulement si son polynôme carac-
téristique est scindé sur IK (c’est-à-dire qu’il est factorisable en produit de facteurs
du premier degré sur IK).
3.3 Applications
3.3.1 Application aux suites récurrentes
Nous ne ferons pas de théorie générale: nous expliquons le principe sur des exem-
ples.
La donnée de - par exemple - trois scalaires u0 , v0 , w0 et de trois relations de récur-
rence:
un+1 = a1 un + b1 vn + c1 wn
v = a2 un + b2 vn + c2 wn ∀n ∈ N (3.2)
n+1
wn+1 = a3 un + b3 vn + c3 wn
permet de calculer les scalaires u1 , v1 , w1 , puis les termes généraux des trois suites
(un ), (vn ), (wn ). Nous avons:
un+1 a1 un + b1 vn + c1 wn
(3.2) ⇐⇒ vn+1 = a2 un + b2 vn + c2 wn ∀n ∈ N
wn+1 a3 un + b3 v
n+c3 wn
un+1 a1 b1 c1 un
⇐⇒ vn+1 = a2 b2 c2 vn ∀n ∈ N
wn+1 a3 b3 c3 wn
Par récurrence, on obtient alors
n
un a1 b1 c1 u0
vn = a2 b2 c2 v0 ∀n ∈ N
wn a3 b3 c3 w0
Quand on a pu calculer - par les méthodes précédentes de diagonalisation ou de
trigonalisation- la forme générale de la matrice An , on a l’expression générale des
suites.
Si l’on s’intéresse uniquement aux limites de ces trois suites quand n tend vers +∞,
on peut se contenter de diagnaliser (ou de trigonaliser) la matrice A sous la forme
A = P DP −1 , ce qui donne An = P Dn P −1 , et de calculer la limite de chacun des
coéfficients de la matrice Dn pour former une matrice D∞ et de calculer les limites
u∞ , v∞ , w∞ de ces suites par la relation:
u∞ u0
v∞ = P D∞ P −1 v0 .
w∞ w0
Pour que ces limites soient finies, il faut que les valeurs propres de A soient toutes,
en module, inférieures à 1.
E XEMPLE 3.3.2. Etudions la convergence des deux suites réelles définies par la don-
née de u0 , et v0 quelconque et les deux relations:
1 1 1 5
un+1 = un + vn ; vn+1 = − un + vn
6 3 3 6
U 0 (t) = DU (t)
qui se ramène simplement aux équations différentielles:
Il n’y a donc surtout pas lieu de calculer, pour une fois, la matrice P −1 .
En notant V1 , V2 , · · · , Vn les vecteurs propres que l’on a trouvé en diagonalisant (ce
sont donc les colonnes de la matrice), on obtient la solution sous forme vectorielle:
x1 (t)
x (t)
2
X(t) = .. = A1 eλ1 t V1 + A2 eλ2 t V2 + · · · + An eλn t Vn
.
xn (t)
où les A1 , A2 , · · · , An sont des constantes. On peut donc dire que l’ensemble des
solutions du système différentiel est un espace vectoriel de dimension n dont une
base est (eλ1 t V1 , eλ2 t V2 , · · · , eλn t Vn ).
E XEMPLE 3.3.3. Résoudre le système différentiel:
0
x (t)= x − 3y + 3z
y 0 (t)=3x − 5y + 3z
0
z (t)=6x − 6y + 4z
1 −3 3
La diagonalisation de la matrice A = 3 −5 3 est laisée en exercice.
6 −6 4
Nous obtenons:
−2 0 0 1 0 1
D = 0 −2 0 et P = 1 1 1 .
0 0 4 0 1 2
A partir des trois valeurs propres −2, − 2, 4, nous formons les trois applications
définies par:
u(t) = αe−2t , v(t) = βe−2t , w(t) = γe4t
z(t) 0 1 2
αe−2t + γe4t
= (α + β)e−2t + γe4t
βe−2t + 2γe4t
où α, β, γ sont des constantes que l’on peut calculer si l’on a des données ini-
tiales concernant les fonctions. il faut trois conditions, par exemple les valeurs de
x(0), y(0), et z(0).
(P −1 X 0 (t)) = T (P −1 X(t))
qui est plus pénible à résoudre. Regardons un exemple, ce qui sera plus parlant.
E XEMPLE 3.3.4. Résoudre le système différentiel:
0
x (t)= −3x + y − z
y 0 (t)= −7x + 5y − z
0
z (t)=−6x + 6y − 2z
−3 1 −1
La matrice A = −7 5 −1 est seulement trigonalisable sous la forme
−6 6 −2
4 0 0 0 1 0
A = P T P −1 avec T = 0 −2 1 et P = 1 1 0
0 0 −2 1 0 −1
0
u (t) u(t)
Nous devons alors résoudre le système différentiel v 0 (t) = T v(t) , à
w0 (t) w(t)
savoir:
u0 (t) = 4u(t), v 0 (t) = −2v(t) + w(t), w0 (t) = −2w(t)
dont seulement la première et la dernière équation sont évidentes à résoudre. Il faut
commencer par elles, pour pouvoir ensuite résoudre celle en v(t). Nous obtenons:
U [V (x)] = (U ◦ V )(x)
= (V ◦ U )(x)
= V [U (x)]
= V (0E ) (car x ∈ kerU ⇒ U (x) = 0E )
= 0E
V (y) = V [U (x)]
= (V ◦ U )(x)
= (U ◦ V )(x)
= U [V (x)]
Dans ce cas, pour tout i ∈ db1, pec, la matrice Mi est la matrice de la restriction de
U à Ei . Preuve en exercice.
C OROLLAIRE 3.4.2. Soit B = (e1 , e2 , · · · , en ) une base de E et U ∈ L(E), la ma-
trice de U relative à B est diagonale si et seulement si chaque s.e.v Ei = vect(ei ) est
stable par U (c’est-à-dire l’endomorphisme induit par U sur Ei est une homothétie
vectorielle).
Preuve:
n
X
P (U ) = ai U i
i=0
On en déduit que
C OROLLAIRE 3.5.3. Si le polynôme caractéristique d’une matrice carrée A est
q
PA = (λ − λi )ni et si A est diagonalisable sur K alors le polynôme minimal de A
Q
i=1
q
Q
est (λ − λi ).
i=1
Exercice d’application 3.5.1. On considère la matrice
2 6 −3 −3
0 5 0 −6
A= 0 9 −1 −9
0 3 0 −4
3.6 Exercices
Exercice 1
Exercice 2
Exercice 3
On considèrel’endomorphisme
f dont la matrice dans la base canonique de R3 est
1 1 3
donnée A = 1 1 1
−2 2 4
1. L’endomorphisme f est-il diagonalisable sur R? Justifier votre réponse.’
2. L’endomorphisme f est-il trigonalisable sur R? si oui trigonaliser la.
3. Déterminer les sous-espaces de R3 stables par f .
Exercice 4
Exercice 6
Exercice 8
Formes quadratiques
D ÉFINITION 4.1.2. Une forme bilinéaire sur un K-espace vectoriel E est une ap-
plication bilinéaire de E × E à valeur dans K.
L’ensemble des formes bilinéaires sur le K-espace vectoriel E est alors
L2 (E, K).
E XEMPLE 4.1.1. 1. ϕ1 : R3 × R3 −→ R définie pour x = (x1 , x2 , x3 ) et
3
xi yi est une forme bilinéaire sur R3 .
P
y = (y1 , y2 , y3 ) par ϕ(x, y) =
i=1
50
4.1. FORMES BILINÉAIRES: RAPPELS ET COMPLÉMENTS 51
3. Sur le R-espace vectoriel C([0; 1], R) des applications continues de [0; 1] dans
R, l’application
ϕ4 : (Mn (K))2 −→ K
(A, B) 7−→ T r(AT B)
est une forme bilinéaire.
En effet soit (A, B, C) ∈ (Mn (K))3 et α ∈ K
Cela signifie que la connaissance des valeurs ϕ(ei , ej ) pour tout 1 ≤ i, j ≤ n permet
d’évaluer pour tout (x, y) ∈ E 2 , ϕ(x, y) dès que x et y sont écrits dans la base B.
Ainsi une forme bilinéaire est déterminée par les valeurs aij = ϕ(ei , ej ),
1 ≤ i, j ≤ n qu’elle prend dans une base donnée de E.
R EMARQUE 4.1.1. 1. Inversement, toute matrice Mn (K) définie une forme bil-
inéaire via la formule (4.2)
2. L’application
Φ : L2 (E, K) −→ Mn (K)
ϕ 7−→ M atB (ϕ)
est un isomorphisme d’espaces vectoriels (à prouver).
Ainsi, comme Mn (K) est de dimension finie n2 , alors L2 (E, K) est aussi de di-
mension finie et dimK (L2 (E, K)) = n2 .
E XEMPLE 4.1.2. Déterminer les matrices par rapport à la base canonique Bn de Rn
des formes bilinéaires ϕ1 et ϕ2 définies dans l’exemple 4.1.1
R ÉPONSE:
1 0 0 0
1 0 0 0 1 0 0
M atB3 (ϕ1 ) = 0 1 0 et M atB4 (ϕ2 ) =
0
.
0 1 0
0 0 1
0 0 0 −c2
C OMMENTAIRE: On fera attention de ne pas confondre ces deux notions (en-
domorphisme de E et forme bilinéaire sur E) même si toutes deux peuvent être
représentées par le même objet mathématique qui est matrice.
P ROPOSITION 4.1.1. Soit B et B 0 deux bases d’un espace vectoriel E de dimension
finie et P la matrice de passage de B à B 0 .
n X
X n
ϕ(e0i , e0j ) = pki plj ϕ(ek , el )
k=1 l=1
n
P
Or M P = ϕ(ei , el )plj .
l=1 1≤i,j≤n
En posant M P = (cij )1≤i,j≤n et P T M P = (dij )1≤i,j≤n , on a pour tout
(i, j) ∈ db1, nec × db1, nec
n
X
dij = pki ckj
k=1
n n
!
X X
= pki ϕ(ek , el )plj
k l=1
n
XXn
= (pki plj ϕ(ek , el ))
k l=1
0 0
= ϕ(ei , ej )
D’où M 0 = P T M P
0 0 0 −c2
• En particulier si dimK E = n ∈ N∗ On a:
1
dimK (Ls2 (E, K)) = n(n + 1)
2
1
dimK (La2 (E, K)) = n(n − 1)
2
Preuve: On sait que 0KE ∈ Ls2 (E, K) et Ls2 (E, K) ⊂ L2 (E, K)
Soit ϕ et ψ deux éléments de Ls2 (E, K) et α, ∈ K. Alors (αϕ + ψ) ∈ L2 (E, K) et
pour tout (x, y) ∈ E,
Preuve: Existence:
Par définition de q, il existe ϕ ∈ L2 (E, K) telle que
q(x) = ϕ(x, x) pour tout x ∈ E. D’où
q(x) = ϕ(x, x) = ϕs (x, x) + ϕa (x, x) avec ϕs ∈ Ls2 (E, K) et ϕa ∈ La2 (E, K) alors
q(x) = ϕs (x, x) car ϕa (x, x) = 0. On choisit ϕ0 = ϕs
Unicité:
Soit ψ ∈ Ls2 (E, K) telle que q(x) = ψ(x, x) pour tout x ∈ E.
Soit (x, y) ∈ E. On a:
q(x + y) = ψ(x + y, x + y)
= ψ(x, x) + 2ψ(x, y) + ψ(y, y) car ψ ∈ Ls2 (E, K)
q(x + y) = q(x) + 2ψ(x, y) + q(y) (∗)
1
Ainsi ψ(x, y) = (q(x + y) − q(x) − q(y)). (Ce qui correspond à la formule de
2
polarisation) ceci justifie l’unicité de ψ
2ème Formule de polarisation
La substitution de y à −y dans (∗) donne:
3
1. L’application, q : R3 −→ R, (x1 , x2 , x3 ) 7→ x2i ,
P
E XEMPLE 4.2.1.
i=1
3
est une forme quadratique sur R . Elle est construite à partir de la forme
bilinéaire symétrique
ϕ : (R3 )2 −→ R
3
P
(x, y) 7−→ x i yi
i=1
4.2.2 Orthogonalité
D ÉFINITION 4.2.3. Soit E un K-espace vectoriel, et q une forme quadratique de
forme polaire ϕ0 .
Deux vecteurs x et y de E sont dits orthogonaux selon q (ou selon ϕ0 ) lorsque
ϕ0 (x, y) = 0.
On dit aussi que x et y sont q (ou ϕ0 )-orthogonaux.
E XEMPLE 4.2.4. Dans l’espace vectoriel R2 la forme quadratique
q : (x1 , x2 ) ∈ R2 7−→ x21 + x22
fournit la notion d’orthogonalité usuelle dans le plan.
En effet:
La forme polaire de q est
ϕ0 : (R2 )2 −→ R
2
P
((x1 , x2 ), (y1 , y2 )) 7−→ xi yi
i=1
Deux vecteurs (x1 , x2 ) et (y1 , y2 ) de R2 sont orthogonaux selon cette forme quadra-
tique si et seulement si
x1 y1 + x2 y2 = 0.
Ainsi selon q les vecteurs U 0 = (4, 0) et V 0 = (5, 5) ne sont pas orthogonaux car
ϕ0 (U 0 , V 0 ) = 20 6= 0.
Mais les vecteurs U = (4, 1) et V = (1, −4). le sont car ϕ0 (U, V ) = 0
D ÉFINITION 4.2.4. Soit A et B deux sous-ensembles non vides d’un K-espace vec-
toriel E, q une forme quadratique sur E et ϕ0 sa forme polaire.
• On appelle orthogonal de A selon q(ou selon ϕ0 ) l’ensemble
A⊥ = {x ∈ E, ∀ y ∈ A, ϕ0 (x, y) = 0}.
• Les deux ensembles A et B sont dit orthogonaux selon q (ou selon ϕ0 ), et on note
A ⊥ B lorsque ∀ x ∈ A, ∀ y ∈ B ϕ0 (x, y) = 0.
Posons A = {1 + X + X 2 }.
Déterminer [V ect(A)]⊥ et (A⊥ )⊥ puis justifions que A⊥⊥ 6⊂ A
L EMME 4.2.1. Soit B = (ei )1≤i≤n une base d’un K-un espace vectoriel E de di-
mension n, et A la matrice d’une forme bilinéaire symétrique ϕ dans la base B et f
l’endomorphisme de E de matrice A dans la base B. On a alors: dim(ker(ϕ)) =
dim(ker(A)) .
∀ (f, f 0 ) ∈ F 2 , (f 6= f 0 =⇒ ϕ0 (f, f 0 ) = 0)
• La famille F est dite q-orthonormale lorsque la famille F est q-orthogonale et
pour tout f ∈ F ϕ0 (f, f ) = 1.
Convention: Une famille réduit à un seul vecteur non nul sera considérée comme
q-orthogonale pour toute forme quadratique q.
E XEMPLE 4.2.7. Soit E = C([0, 1]; R) et q la forme quadratique dont la forme
polaire est R1
ϕ0 : (f, g) ∈ E 2 7−→ 0 f (t)g(t)dt ∈ R
Prouver que la famille (fn )n∈N∗ de E définie par:
Preuve: évidente
T HÉORÈME 4.2.2. (Théorème de Schmidt)
Soit E un K-espace vectoriel de dimension finie non nulle et q une forme quadratique
sur E.
L’espace E admet une base q-orthogonale.
Preuve: Raisonnons par récurrence sur la dimension n de E. Pour tout n ∈ N∗ on
va prouver l’assertion Pn suivante:
“ Pour tout K-espace vectoriel E de dimension n et toute forme quadratique q sur E,
il existe une base q-orthogonale de E.”
• Pour n = 1, toute base de E est formée d’un seul vecteur non nul et par convention
cette base est q-orthogonale.
Indications:
(⇒) soit E un K-espace vectoriel muni d’une base (e1 , e2 , · · · , en ).
n
P
Soit q une forme quadratique sur E. Pour tout x = xi ei ∈ E, on peut facilement
i=1
prouver que:
n n P
n
aii x2i +
P P
q(x) = aij xi xj où aij ∈ K, 1 ≤ i, j ≤ n.
i=1 i=1 j=i+1
Selon les cœfficients aij , 1 ≤ i, j ≤ n deux cas sont à envisager:
Premier cas: il existe au moins un entier i tel que aii 6= 0.
Supposons qu’il s’agisse de a11 6= 0. En notant x0 = (x2 , · · · , xn ), on écrit dans un
premier temps q sous la forme:
On peut itérer alors ce processus pour décomposer une forme quadratique comme la
somme de carrés de formes linéaires f1 , · · · , fq sur l’espace vectoriel E.
Montrons la réciproque; supposons qu’il existe r formes linéaires indépendantes
r
γi fi2 . D’après le
P
f1 , · · · , fr et qu’il existe r réels non nuls γ1 , · · · , γr tels que q =
i=1
théorème de la base incomplète, la famille {f1 , · · · , fr } de l’espace vectoriel E ∗ , qui
est une famille libre, peut être complètée en une base B̃ = (f1 , f2 , · · · , fn ) de E ∗ .
D’après Corollaire 1.1.1, il existe une base unique B = (e1 , e2 , · · · , en ) de E dont la
base duale est B̃. Déterminons la matrice de q dans cette base en évaluant ϕ0 (ei , ej )
pour tout (i, j) ∈ {1, · · · , n}2 où ϕ0 est la forme polaire de q définie par
r
X
2
∀ (x, y) ∈ E ϕ0 (x, y) = γk fk (x)fk (y).
k=1
Par définition d’une base duale on a fi (ej ) = δij pour tout (i, j) ∈ {1, · · · , n}2 et
par conséquent
r
X
2
(i, j) ∈ {1, · · · , n} ϕ0 (ei , ej ) = γk δik δjk .
k=1
70
5.1. PRODUIT SCALAIRE 71
∀x ∈ E, ϕ(x, a) = 0 ⇐⇒ a = 0E
et
∀x ∈ E, ϕ(x, b) = ϕ(x, c) ⇐⇒ b = c.
D ÉMONSTRATION:
[N (x + y)]2 = ϕ(x + y, x + y)
De l’ínégalité de Cauchy-Schwarz, on a:
p p
|ϕ(x, y)| ≤ ϕ(x, x) ϕ(y, y) = N (x)N (y).
est une famille orthogonale qui engendre le même espace vectoriel que la famille
(e1 , e2 , · · · , ep ).
Démonstration: Prouvons par récurrence sur q ∈ N∗ la proposition (Pq ):
“Pour toute famille libre à q éléments (e1 , e2 , · · · , eq ), la famille (ε1 , ε2 , · · · , εq )
définie par la relation (5.1) est orthogonale et ces deux familles engendrent le même
espace vectoriel.”
• La propriété (P1 ) est vraie: en effet, la famille {ε1 }, réduite à un élément non nul,
est libre. De plus cette famille {ε1 } est orthogonale puisque toute famille à un élé-
ment non nul est orthogonale.
• Soit q ∈ N∗ . Supposons que la propriété (Pq ) est tout et prouvons que la propriété
(Pq+1 ) est vraie.
Considérons une famille libre à q + 1 éléments: (e1 , e2 , · · · , eq+1 ), et construisons la
famille (ε1 , ε2 , · · · , εq+1 ) en utilisant la relation (5 1).
La famille (e1 , e2 , · · · , eq ) étant une famille extraite de la famille libre (e1 , e2 , · · · , eq+1 ),
elle est libre. Par hypothèse de récurrence il existe une famille orthogonale (ε1 , ε2 , · · · , εq )
définie par la relation (5.1) engendrant le même espace que la famille (e1 , e2 , · · · , eq ).
Considérons la famille C = (ε1 , ε2 , · · · , εq+1 ) avec
q
X hεi , eq+1 i
εq+1 = eq+1 − εi
i=1
||εi ||2
n
2
x2i .
P
et ||x|| =
i=1
En terme matriciel, on a: hx, yi = X T Y et ||x||2 = X T X, X et Y étant les
matrices colonnes ayant pour coefficients les composantes de x et y dans une base
orthonormale de E.
Ainsi dans un espace euclidien de dimension n, muni d’une base orthonormale, tout
se passe comme dans l’espace euclidien Rn muni du produit scalaire canonique.
T HÉORÈME 5.2.1. Soit (E, ϕ) un espace vectoriel euclidien et F un sous-espace
vectoriel de E. Alors on a:
L ⊥
1. F F =E
2. F ⊥ ⊥
=F
Démonstration:
Ainsi on obtient:
1
||x + y||2 − ||x − y||2 = hx, yi
hu(x), u(y)i =
4
(formule de polarisation).
Ainsi u est une isométrie.
P ROPOSITION 5.3.2. 1. Toute isométrie d’un espace euclidien E est un automor-
phisme de E.
2. L’ensemble des isométries d’un espace euclidien E est un sous-groupe du groupe
linéaire (GL(E), ◦) de E, que l’on note O(E) appelé le groupe des isométries
de E.
Preuve:
Une autre manière de caractériser les isométries d’un espace euclidien E est de
considérer leur action sur une base orthonormale de E. On a le résultat suivant:
P ROPOSITION 5.3.3. Soit E un espace euclidien de dimension et (e1 , e2 , · · · , en ) une
base orthonormale de E. Un endomorphisme u de E est une isométrie si et seulement
si (u(e1 ), u(e2 ), · · · , u(en )) est une base orthonormale de E.
Démonstration:
. Supposons que l’endomorphisme u soit une isométrie et considérons une base
orthonormale (e1 , e2 , · · · , en ) de E. Pour tout (i, j) ∈ {1, · · · , n}2 avec i 6= j
on a hu(ei ), u(ej )i = hei , ej i = 0 et pour tout i ∈ {1, · · · , n}
on a ||u(ei )|| = ||ei || = 1. On en déduit que la famille
(u(e1 ), u(e2 ), · · · , u(en )) est orthonormale. Puisque toute famille orthonormale
est libre, la famille (u(e1 ), u(e2 ), · · · , u(en )) est une famille libre de n vecteurs
en dimension n. On en déduit que cette famille est une base de E.
. Réciproquement, supposons que les familles (e1 , e2 , · · · , en ) et
(u(e1 ), u(e2 ), · · · , u(en )) soient deux bases orthonormales.
n
P
Soit x = xi ei ∈ E. Alors
i=1
n
X n
X
u(x) = u(xi ei ) = xi u(ei ) car u est linéaire .
i=1 i=1
∀ Y ∈ Mn,1 (K) (U T U )Y = IY
(3) Les vecteurs colonnes (resp. vecteurs lignes) de la matrice U forment une base
orthonormale pour le produit scalaire canonique de Rn .
Démonstration: L’implication (1) ⇒ (2) a été justifiée en préambule.
Désignons par (e1 , e2 , · · · , en ) la base canonique de Rn . Cette base est orthonormale
pour le produit scalaire canonique, i.e. hei , ej i = 0 si i 6= j et hei , ej i = 1.
. Supposons que l’assertion (2) soit vraie, c’est-à-dire supposons que la matrice U
est inversible et U −1 = U T . On a alors U T U = I.
Désignons par Ei , 1 ≤ i ≤ n la matrice colonne du système de coordonnées ei . Les
colonnes de la matrice U sont alors les U Ei . On obtient:
∀(i, j) ∈ {1, · · · , n}2 hU Ei , U Ej i = hEi , U T U Ej i = hEi , Ej i = δij .
On en déduit que la famille constituée des n vecteurs colonnes de U est aussi une
famille orthonormale.
Par conséquent c’est une famille libre de n vecteurs en dimension n. Ainsi c’est une
base de l’espace Rn . Ce qui justifie que les vecteurs colonnes de la matrice U forment
une base orthonormale de Rn . Le même raisonnement avec la matrice U T à la place
de U montre que les vecteurs lignes de U forment aussi une base orthonormale de
Rn . On a donc établit que (2) ⇒ (3).
. Supposons que l’assertion (3) soit vraie, et prouvons que la matrice U est une
matrice orthogonale. La décomposition d’un vecteur x de Rn dans la base canonique
n
P
(e1 , e2 , · · · , en ) sous la forme x = xi ei implique, par linéarité, que l’on a
i=1
n
! n
X X
UX = U xi Ei = xi U E i .
i=1 i=1
Les deux premières égalités indiquent qu’il existe (θ, φ) ∈ [0, 2π[2 tel que a =
cos(θ), b = sin(θ), c = cos(φ) et d = sin(φ). En utilisant la dernière égalité, on a
φ = θ ± π/2(mod2π). La matrice U est donc l’une des deux formes suivantes:
cos(θ) −sin(θ) cos(θ) sin(θ)
Rθ = ou Sθ = .
sin(θ) cos(θ) sin(θ) −cos(θ)
Dans le premier cas, on a det(Rθ ) = +1 alors que dans le second cas, on a
det(Sθ ) = −1.
Notons que les matrices Sθ possèdent toujours deux valeurs propres réelles distinctes
(1 et −1). La matrice Sθ est donc diagonalisable et s’écrit dans une base de vecteurs
propres:
1 0
0 −1
On déduit de cette étude le résultat suivant:
T HÉORÈME 5.3.1. Les isométries directes du plan (ou rotations du plan) ont pour
matrice
cos(θ) −sin(θ)
Rθ = avec θ ∈ [0, 2π[,
sin(θ) cos(θ)
. Pour déterminer
√ √ l’angle θ de la rotation, on utilise la √ √de la matrice U ; on a
√ trace
2+ √2+ 3 2+ 2+√ 3− 6
T r(U ) = 6
= 2cos(θ) + 1 d’où cos(θ) = 2 6
. Comme le vecteur
x = (1, 0, 0) n’est pas colinéaire à e1 , le signe de sin(θ) est celui du déterminant de
la famille {e1 , x, u(x)}. On a 2
√
1 1 2/ √
√ √ √ √6 1+ 2 √ √
det(e1 , x, u(x)) = ( 2 +√1)( √ 3 − 2) 0 1/ √6 = √ ( 3 − 2).
3
3− 2 0 −1/ 6