Académique Documents
Professionnel Documents
Culture Documents
COURS D ’ALGÈBRE
conforme au programme officiel tunisien de la classe de
2ème année Préparatoires Scientifiques MP
}
H AFEDH B OUSBIH
—————————————–
CHAPITRE
3
ENDOMORPHISMES REMARQUABLES DES
ESPACES EUCLIDIENS
1 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Orientation de l’espace, produit vectoriel et produit mixte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3 Isométries vectorielles d’un espace euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.2 Réduction des isométries vectorielles en dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3 Réduction des isométries vectorielles en dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.4 Réduction des isométries vectorielles en dimension n ≥ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.5 Symétries orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4 Endomorphismes symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2 Lien avec les matrices symétriques réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3 Réduction des endomorphismes symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Dans tout ce chapitre, 0n considère (E , 〈· | ·〉) un espace euclidien de dimension finie n ∈ N∗ et des matrices carrées
de taille n. Si M ∈ Mn (K), on désigne par t M sa matrice transposée.
1 Matrices orthogonales
On appelle matrice orthogonale toute matrice A ∈ Mn (R) qui vérifie l’une des trois propriétés équivalentes sui-
vantes :
t
A A = In ⇐⇒ At A = In ⇐⇒ A ∈ GLn (R) et A −1 = t A.
On appelle groupe orthogonal l’ensemble des matrices orthogonales noté O n (R) ou O(n).
Démonstration.
En effet si A est inversible à droite alors elle est inversible et son inverse à droite est son inverse. De même à gauche.
1
Hafedh Bousbih 1. Matrices orthogonales
On justifiera ultérieurement que O n (R) muni de la loi multiplicative des matrices admet une structure de groupe.
Exemples 1.0 :
Une matrice de Mn (R), qui est diagonale avec des coefficients diagonaux égaux à ±1,
±1 0
±1
M = ..
.
0 ±1
X
n X
n
〈X | Y 〉 = t X Y = xi y i = y i xi = tY X .
i =1 i =1
¡ ¢
De même, sur M1,n (R), on a le produit scalaire canonique défini, pour tout X = (x 1 , . . . , x n ) et Y = y 1 , . . . , y n vecteurs
lignes de M1,n (R), par :
X
n X
n
〈X | Y 〉 = X tY = xi y i = y i xi = Y t X .
i =1 i =1
L A1
¡ ¢ . ¡ ¢
Dans le même fil d’idée, si A, B ∈ Mn (R), et décrivons A = a i , j 1≤i , j ≤n = .. et B = b i , j 1≤i , j ≤n = (C B 1 . . .C B n )
L An
alors on a :
à !
¡ ¢ X
n ¡ ¢
AB = c i , j 1≤i , j ≤n = a i ,k b k, j = L Ai C B j 1≤i , j ≤n .
k=1 1≤i , j ≤n
Démonstration.
¡ ¢
Posons A = a i , j , les trois assertions sont équivalentes.
1≤i , j ≤n
¢¡ ¡ ¢ X
n ®
- 1) ⇐⇒ 2) On a t A = a j ,i 1≤i , j ≤n et t A A = b i , j 1≤i , j ≤n avec b i , j = a k,i a k, j = C i ,C j donc
k=1
t
®
A A = In ⇐⇒ ∀i , j ∈ 1, n, C i ,C j = b i , j = δi , j
- 2) ⇐⇒ 4) Supposons que les vecteurs colonnes de A forment une base orthonormale de Mn,1 (R).
Notons B0 = (e 1 , . . . , e n ) la base canonique de Rn , qui est orthonormée pour le produit scalaire usuel sur Rn .
A = P B →C := MatC ,B (idRn ) .
Ainsi ® ® ®
g 1 , f 1 ® g 2 , f 1 ® . . . g n , f 1 ®
g1, f2 g2, f2 ... gn , f2
A= .. .. ..
. . .
® ® ®
g1, fn g2, fn ... gn , fn
®
Donc pour tout (i , j ) ∈ [1, n]2 , [A]i , j = g j , f i . D’après le cours, A est inversible, car c’est la matrice d’une base dans
une base et donc det A 6= 0.
® ® ®
f1, g1® f2, g1® . . . fn , g1®
f1, g2 f2, g2 ... fn , g2
A −1 = P C →B := Mat B ,C (idRn ) = .. .. .. .
. . .
® ® ®
f1, gn f2, gn ... fn , gn
£ ¤ ®
Donc pour tout (i , j ) ∈ 1, n2 , A −1 i , j = f j , g i .
Avec la symétrie du produit scalaire, nous observons A −1 =t A.
¡ ¢ X
n ®
1) ⇐⇒ 3) Posons A t A = c i , j 1≤i , j ≤n , alors c i , j = a i ,k a j ,k = L i , L j donc
k=1
®
At A = In ⇐⇒ ∀i , j ∈ 1, n, L i , L j = c i , j = δi , j .
Remarque 1.0 :
Pour vérifier qu’une matrice est orthogonale, il est plus simple d’utiliser la caractérisation 2) ou 3) plutôt que
n(n + 1)
de calculer le produit matriciel t A A (on a seulement calculs au lieu de n 2 ). Exemple :
2
p1 p1 p1
3 2 6
p1 − p1 p1
Soit la matrice A = 3 2 6 ∈ M3 (R). Montrons que A ∈ O 3 (R).
p1 0 − p2
3 6
En notant C 1 ,C 2 et C 3 les colonnes de A on a
〈C 1 ,C 2 〉 = 〈C 2 ,C 3 〉 = 〈C 1 ,C 3 〉 = 0 et kC 1 k = kC 2 k = kC 3 k = 1
On en déduit A ∈ O 3 (R).
Démonstration.
- 1 ⇒ 2. Supposons que A ∈ O n (R). Soit (X , Y ) ∈ Mn,1 (R)2 : t (AX )(AY ) = (t X t A)(AY ) =t X Y .
- 2 ⇒ 1. Supposons que pour tout (X , Y ) ∈ Mn,1 (R)2 , t (AX )(AY ) =t X Y .
Notons (E 1 , . . . , E n ) la base canonique de Mn,1 (R), qui est orthonormale.
Soit (i , j ) ∈ 1, n2 .
[A]1,i [A]1, j [A]1,i [A]1, j
* +
® ¡ ¢ [A]2,i [A]2, j [A]2,i [A]2, j
t t
t
δi , j = E i , E j = E i E j = (AE i ) AE j = .. × .. = .. , ..
. . . .
[A]n,i [A]n, j [A]n,i [A]n, j
Les vecteurs colonnes de A forment une base orthonormale de Mn,1 (R). Donc A ∈ O n (R).
- 2 ⇒ 3. Immédiat.
- 3 ⇒ 2. Supposons que pour tout Z ∈ Mn,1 (R), t (AZ )(AZ ) =t Z Z .
Soient (X , Y ) ∈ Mn,1 (R)2 . Alors
t
(A(X + Y ))(A(X + Y )) =t (X + Y )(X + Y )
et donc ¡t ¢ ¡ ¢
(AX ) +t (AY ) (AX + AY ) = t X +t Y (X + Y )
d’où
t
(AX )AX +t (AX )AY + t (AY )AX +t (AY )AY =t X X +t X Y + |t Y{zX} +t Y Y
| {z }
t (AX )AY t XY
Ainsi 2t (AX ) × AY = 2t X × Y .
Démonstration.
¡ ¢
Immédiat. det t A A = det(A)2 = 1 donc det(A) = ±1.
2
Remarque 1.1 :
µ ¶
1 1
La réciproque est fausse : la matrice M = est de déterminant égal à −1 mais elle n’est pas orthogonale.
1 0
On appelle groupe spécial orthogonal (d’orde n) l’ensemble des matrices orthogonales de déterminant +1.
On le note SO n (R), ou SO(n) ou O n+ (R).
Remarque 1.2 :
L’ensemble des matrices orthogonales de déterminant −1 est noté O n− (R) .
Propriétés 1.1
Démonstration.
Remarque 1.3 :
Considérons k.k la norme q euclidienne associée au produit scalaire canonique sur Mn (R).
¡ ¢ p p
Pour A ∈ O n (R), kAk = Tr t A A = Tr (I n ) = n.
Par suite, O n (R) est une partie bornée.
Remarque 1.4 :
Soit A ∈ M2 (R)
1. A ∈ O 2+ (R) si, et seulement si, il existe un réel θ unique à 2π près vérifiant
µ ¶ µ ¶
cos θ − sin θ a −b
A = R(θ) = = avec (a, b) ∈ R2 , a 2 + b 2 = 1.
sin θ cos θ b a
En outre S(θ)2 = I 2 .
Démonstration.
µ ¶
a b
- Soit M = ∈ M2 (R) orthogonale. De t M × M = I 2 nous déduisons
c d
a2 + c 2 = b2 + d 2 = 1 ab + cd = ac + bd = 0
et
n o
Comme les nombres a + i c et b + i d appartiennent à U := {z ∈ C : |z| = 1} = e i θ : θ ∈ R , il existe α, β ∈ R tels que
a + i c = cos(α) + i sin(α) et b + i d = cos(β) + i sin(β) et donc
2
Remarque 1.5 :
Description de O 2 (R) :
½ µ ¶ ¾ ½ µ ¶ ¾
cos(θ) − sin(θ) [ cos(θ) sin(θ)
O 2 (R) = R θ := :θ∈R S θ := :θ∈R
sin(θ) cos(θ) disjointe
sin(θ) − cos(θ)
En effet : on a déjà établi dans la proposition précédente que si A ∈ O 2+ (R) alors il existe θ ∈ R tel que
µ ¶ µ ¶
cos θ − sin θ cos θ sin θ
A = R(θ) = et que si A ∈ O 2− (R) alors il existe θ ∈ R tel que A = S(θ) =
sin θ cos θ sin θ − cos θ
Comme pour θ ∈ R, det(R(θ)) = 1 et det(S(θ)) = −1, il vient alors que la réunion est disjointe.
Remarque 1.6 :
Propriétés algébriques des matrices R θ
On vérifie aisément que les matrices de rotation R(θ) satisfont les propriétés suivantes :
1. R 0 = I 2
2. ∀ (θ1 , θ2 ) ∈ R2 , R θ1 +θ2 = R θ1 × R θ2
−1 t
3. (R θ ) = R −θ = R θ
Remarque 1.7 :
Construction de matrices orthogonales par blocs :
1. Soient n 1 et n 2 des nombres entiers naturels non nuls. Soient A 1 ∈ O n1 (R) et A 2 ∈ O n2 (R). Alors :
µ ¶ µ ¶ µ t ¶ µ ¶ µ t ¶ µ ¶
t A1 0 A1 0 A1 0 A1 0 A1 × A1 0 I n1 0
× = t × = t = = I n1 +n2
0 A2 0 A2 0 A2 0 A2 0 A2 × A2 0 I n2
µ ¶
A1 0
Donc ∈ O n1 +n2 (R)
0 A2
2. Plus généralement :
soient n 1 , n 2 , . . . , n p des nombres entiers naturels non nuls et soient A 1 ∈ O n1 (R), A 2 ∈ O n2 (R), . . . , A p ∈ O n p (R). Alors :
A1 0
A2
.. ∈ O n1 +n2 +...+n p (R)
.
0 Ap
Théorème 2.1
B 0
B RB 0 ⇐⇒ det P B > 0.
Cette relation est une relation d’équivalence ; de plus, il y a exactement deux classes d’équivalence.
Démonstration.
• La réflexivité est évidente : on a BRB pour toute base B puisque P = I n dans ce cas.
³ ´
B B 0 −1
• La relation est symétrique : si BRB 0 alors B 0 RB puisque P B 0 = PB .
B B B 00 0 00
• La relation est transitive : si BRB 0 et B 0 RB 00 alors BRB 00 puisque P B = PB .P B 0 .
Par convention, les bases orthonormales directes de R3 sont celles qui respectent la règle des trois doigts (ou règle
du tire-bouchon).
Démonstration.
Soit B 0 une autre base orthonormale directe de E . Alors : ³ ´
B
det (x 1 , . . . , x n ) = detB 0 (B ) det (x 1 , . . . , x n ) = detB (x 1 , . . . , x n ) car det(B ) = det P B 0 = +1
2
Remarque 2.0 :
Interprétation géométrique
En dimension 2, la valeur absolue du produit mixte de x 1 et x 2 représente l’aire du parallélogramme construit sur x 1
et x 2 .
En dimension 3, la valeur absolue du produit mixte de trois vecteurs x 1 , x 2 et x 3 représente le volume du
parallélépipède construit sur ces trois vecteurs.
x2
x3
x1
x2
Proposition 2.1
- x ∧ y ⊥ x et x ∧ y ⊥ y
- x ∧ y = 0E si et seulement si (x, y) est liée.
- 〈x ∧ y, z〉 = det(x, y, z) = [x, y, z].
Remarque 2.1 :
On peut en fait montrer qu’il existe un unique vecteur u tel que :
∀z ∈ E , (u | z) = det(x, y, z)
Définition 3.1
∀ x ∈ E , ku(x)k = kxk .
On dit aussi que u conserve la norme ou la mesure, d’où provient le terme isométrie.
Exemples 3.0 :
IdE et −IdE sont deux isométries de E .
Démonstration.
Le sens direct est immédiat.
Supposons maintenant que u conserve ³° la norme. °D’après l’identité de polarisation :
¯ ® 2 ° °2 ´ ³° °2 ° °2 ´
2
∀ (x, y) ∈ E , ¯
u(x) u(y) 1 ° ° °
= 4 u(x) + u(y) − u(x) − u(y) ° 1 °
= 4 u(x + y)° − °u(x − y)°
³° °2 ° °2 ´ ¯ ®
= 14 °x + y ° − °x − y ° = x ¯ y
donc u conserve aussi le produit scalaire.
2
Remarque 3.0 :
Soient E un espace euclidien, F un sous-espace vectoriel de E et G un supplémentaire de F dans E .
• Si s est la symétrie orthogonale par rapport à F et de direction G (i.e. F ⊥ G) alors s est une isométrie. En effet :
¡ ¢2
Soit (x, y) ∈ E 2 , comme E = F ⊕ F ⊥ , écrivons x = x 1 + x 2 et y = y 1 + y 2 avec (x 1 , y 1 ) ∈ F 2 et (x 2 , y 2 ) ∈ F ⊥ . Alors
¯ ® ¯ ® ¯ ® ¯ ® ¯ ® ¯ ®
s(x) ¯ s(y) = x 1 − x 2 ¯ y 1 − y 2 = x 1 ¯ y 1 + x 2 ¯ y 2 = x 1 + x 2 ¯ y 1 + y 2 = x ¯ y .
• Un projecteur orthogonal de E distinct de IdE n’est pas un endomorphisme orthogonal.
Soit p un projecteur orthogonal de E distinct de IdE . Alors E 6= Ker (p − IdE ) et donc Ker (p) 6= 0E .
Soit donc x un vecteur non nul dans le noyau de p. Alors kp(x)k = 0 6= kxk.
Donc p n’est pas un endomorphisme orthogonal de E .
Proposition 3.2
Démonstration.
Il suffit de démontrer que u est injectif puisque u est un endomorphisme d’un espace E de dimension finie.
Or, si x ∈ Ker u, alors u(x) = 0 donc ku(x)k = 0 et u conserve la norme ; donc kxk = 0 puis x = 0.
Ainsi, Ker u = {0E }, ce qui assure l’injectivité de u et donc sa bijectivité.
Ou bien : compte tenu du th. précédent, transforme une base en une base !
2
Remarque 3.1 :
En particulier tout endomorphisme orthogonal est un isomorphisme.
Pour cette raison, une isométrie vectorielle s’appelle aussi un automorphisme orthogonal.
On note O(E ) l’ensemble des automorphismes orthogonaux (ou des isométries vectorielles) de l’espace E .
Soient E un espace euclidien et u ∈ L (E ), alors les deux propriétés suivantes sont équivalentes :
1. u ∈ O(E ) ;
2. l’image par u d’une/toute base orthonormale de E est une base orthonormale de E .
Démonstration.
• Si u ∈ O(E ) et B = (e 1 , . . . , e n ) est une base orthonormale, alors pour tous (i , j ) ∈ 1, n,
¯ ® ¯ ®
u(e i ) ¯ u(e j ) = e i ¯ e j = δi , j ,
donc la famille (u(e 1 ), . . . , u(e n )) est orthonormale. Par suite, elle est libre.
Comme elle est constituée de n vecteurs dans un espace de dimension n, c’est une base orthonormale de E .
• Supposons que u soit un endomorphisme de E et que l’image d’une base orthonormale B par u soit une base
orthonormale de E .
X
n X
n
Soit alors (x, y) ∈ E 2 . On peut décomposer x et y sur la base B : x = x i e i et y = yjej.
i =1 j =1
Dès lors * ¯ +
¯ ® X n ¯X n X n X n ¯ ® X n
¯
u(x) ¯ u(y) = x i u(e i ) ¯ y j u(e j ) = x i y j u(e i ) ¯ u(e j ) = xi y i
i =1
¯ j =1 i =1 j =1 i =1
Démonstration.
Soit B = (e 1 , . . . , e n ) une base orthonormale de E et B 0 = (u (e 1 ) , . . . , u (e n )) . Posons M = MatB (u).
u ∈ O(E ) ⇐⇒ B 0 est une b.o.n. de E ⇐⇒ M est la matrice de passage d’une b.o.n. à une b.o.n. ⇐⇒ M ∈ O n (R).
Corollaire 3.2
Définition 3.2
Exemples 3.1 :
• IdE est une isométrie positive.
• −IdE est une isométrie positive si, et seulement si, dim E est pair.
• On rappelle qu’une réflexion est une symétrie orthogonale par rapport à un hyperplan.
Les réflexions sont des isométries négatives.
Remarque 3.2 :
L’image d’une base orthonormale directe est une base orthonormale directe si et seulement si l’application est une
isométrie positive.
Soient E un espace euclidien et u ∈ O(E ), alors les propriétés suivantes sont satisfaites
1. Sp(u) ⊂ {−1, 1} ;
2. Plus généralement, en considérant E un C espace vectoriel, les valeurs propres complexes de u sont de
module 1 (c’est-à-dire SpC (u) ⊂ U).
3. L’ensemble O(E ) des isométries vectorielles de E est un sous-groupe de (GL(E ), ◦) appelé groupe orthogo-
nal de E ;
4. SO(E ) = {u ∈ O(E ), det(u) = 1} est un sous-groupe de (O(E ), ◦) appelé groupe spécial orthogonal de E ;
Démonstration.
1. Si λ est une valeur propre réelle de u ∈ O(E ) et x ∈ E un vecteur propre associé unitaire. Des égalités ku(x)k = kxk
et u(x) = λx, on déduit alors que |λ| = 1
2. Soit λ une valeur propre complexe de A = MatB (u) où B est une base orthonormale : il existe X ∈ Mn,1 (C), X 6= 0,
tel que AX = λX .
On calcule alors t X AX = t X (λX ) = λt X X . mais puisque t X AX est un nombre complexe, il est égal à sa transposée :
t
X AX = t X t AX = t X A −1 X (car A orthogonale)
1 1 1
Mais A −1 étant à coefficients réels on a A −1 X = A −1 X = X = X d’où t X AX = t X X et finalement, puisque
λ λ λ
1
kX k2 6= 0 on obtient λ =
.
λ
3. Démontrons O(E ) ⊂ GL(E ). Soit u ∈ O(E ). Soit x ∈ Ker(u). Alors
Par séparation de la norme, x = 0E . Donc u est un endomorphisme injectif de l’espace vectoriel E , qui est de
dimension finie. L’endomorphisme u de E est donc bijectif.
- Pour tout x ∈ E , kidE (x)k = kxk. Donc idE ∈ O(E ).
- Soient u, v ∈ O(E ). Soit x ∈ E .
ku ◦ v(x)k = ku(v(x))k = kv(x)k = kxk
Donc u ◦ v ∈ O(E ).
- Soit u ∈ O(E ). Comme u est un automorphisme de E , on peut considérer son automorphisme inverse : u −1 .
Soit x ∈ E . ° ° ° ¡ ¢° ° °
kxk = °u ◦ u −1 (x)° = °u u −1 (x) ° = °u −1 (x)°
Donc u −1 ∈ O(E ).
½
(O(E ), ◦) −→ ({−1, 1}, ×)
4. Il suffit de considérer le morphisme de groupe det :
u 7−→ det u
C’est un morphisme de groupes et on a SO(E ) = Ker (det) est un sous-groupe de (O(E ), ◦).
Remarque 3.3 :
Les deux premiers points de la proposition précédente peuvent se transposer sur les matrices orthogonales,
comme suit :
Soit A ∈ O n (R) une matrice orthogonale.
1. Les seules valeurs propres réelles possibles de A sont ±1 (c’est-à-dire SpR (A) ⊂ {−1, 1}).
2. Plus généralement, les valeurs propres complexes de A sont de module 1 (c’est-à-dire SpC (A) ⊂ U).
Dans cette section, on considère un espace euclidien de dimension 2, B une b.o.n. de E et u ∈ O(E ).
D’après le corollaire Équivalence : isométrie vectorielle et représentation matricielle orthogonale, il vient que
La matrice d’un endomorphisme r ∈ O + (E ) est la même dans toute base orthonormée directe du plan E .
Plus précisément, il existe θ ∈ R, unique à 2π près, tel que matrice de r dans toute base orthonormée directe du
plan E est R(θ).
Démonstration.
Soient B et B 0 deux bases orthonormées directes de E et P la matrice de passage de B à B 0 .
Puisque B et B 0 sont orthonormées directes P ∈ O 2+ (R).
Notons A et A 0 les matrices de l’endomorphisme r dans les bases B et B 0 .
Ces matrices appartiennent à O 2+ (R).
0 −1
Par la formule de changement ¡ de base,¢ A = P AP .
Or A, P ∈ O 2 (R) et le groupe O 2 (R), × est commutatif donc A 0 = P −1 P A = A.
+ +
Ainsi, la représentation de l’endomorphisme r est la même dans toute base orthonormée directe choisie et puisque
celle-ci est une matrice de O 2+ (R), c’est une matrice du type R(θ) avec θ déterminé de façon unique à 2π près.
2
Définition 3.3
L’isométrie vectorielle (automorphisme orthogonal) positive représentée par la matrice R(θ) dans les bases or-
thonormées directes du plan E est appelée rotation d’angle θ et est notée Rotθ .
Exemples 3.2 :
Propriétés 3.1
Démonstration.
Il suffit de transposer matriciellement les énoncés.
2
Corollaire 3.3
© ª
O + (E ) = Rotθ | θ ∈ R est un groupe abélien.
Alors s correspond à la réflexion par rapport à la droite vectorielle dirigée par le vecteur
µ ¶ µ ¶
θ θ
a = cos i + sin j
2 2
De plus, il existe une base B 0 dans laquelle la symétrie s est représentée par la matrice S(0) où
µ ¶
1 0
S(0) =
0 −1
Démonstration. µ ¶ µ ¶
θ θ
Considérons σ la réflexion par rapport à la droite vectorielle engendrée par le vecteur unitaire a = cos i +sin j.
2 2
Pour tout vecteur x de E , on a : σ(x) = 2 < x, a > a − x donc
µ µ ¶ ¶ µ ¶ µ ¶
2 θ θ θ
σ(i ) = 2 cos − 1 i + 2 cos sin j = cos(θ)i + sin(θ) j
2 2 2
et µ ¶ µ ¶ µ µ ¶ ¶
θ θ 2 θ
σ( j ) = 2 cos sin i − 2 sin − 1 j = sin(θ)i − cos(θ) j.
2 2 2
On en déduit que les applications linéaires σ et s prennent les mêmes valeurs sur i et j et sont donc égales.
2
En voici le tableau récapitulatif
Nature de l’isométrie déterminant spectre s.e. propres matrice dans une bon qcq
µ ¶
1 0
identité 1 {1} E 1 = R2
0 1
µ ¶
−1 0
- identité 1 {−1} E −1 = R2
0 −1
µ ¶
cos θ − sin θ
rotation d’angle θ(6= 0, π) 1 ∅ /
sin θ cos θ
µ ¶
cos θ sin θ
réflexion d’axe Vect (u) −1 {−1, 1} E 1 = Vect(u), E −1 = E 1⊥
sin θ − cos θ
Dans ce cas, det f = 1. Les 3 racines de χ f sont donc 1, ei θ , e−i θ . (la valeur 1 éventuellement peut être multiple).
Soit u un vecteur propre associé à la valeur propre 1 : f (u) = u.
On pose D = Vect(u). D est stable par f et donc D ⊥ stable par f (voir proposition 3.7).
Dans une base orthonormale B adaptée à la décomposition E = D ⊕ D ⊥ , on a :
1 0 0
M = MatB ( f ) = 0 a b
0 c d
µ ¶
a b
Comme t M M = I 3 , on a ∈ O 2 (R) (voir proposi-
c d
tion 3.7). µ ¶
a b
De plus, det M = 1 donc ∈ SO 2 (R).
c d
1 0 0
Ainsi, M = 0 cos θ − sin θ (= R(θ) dans O(R3 ))
0 sin θ cos θ
avec θ ∈ R.
f est donc une rotation d’axe D = Vect(u) (ou dirigée par
u ) et d’angle θ.
Le signe de θ dépend de l’orientation de Vect(u). Le choix
de −u comme vecteur propre associé à 1 aurait conduit à
−θ.
Mais comment déterminer θ ?
On peut déjà remarquer que Tr(M ) = 1 + 2 cos θ ce qui nous permet de déterminer θ au signe près.
On choisira pour u un vecteur unitaire.
Soit v ∈ D ⊥ unitaire et w = u ∧ v. Alors (u, v, w) est une base orthonormale directe de R3 et on a :
- Dans la pratique, comme on connaît cos θ, seul le signe de sin θ nous intéresse.
On peut donc se contenter de vecteurs de la b.o.n. pour se simplifier le calcul du signe du produit mixte.
Cas particuliers :
1 0 0
Si θ = 0 alors f = idE . Si θ = π alors M = 0 −1 0 . f est alors une rotation d’angle π par rapport à Vect (u),
0 0 −1
c’est un retournement (ou demi-tour).
Proposition 3.6
Soient E un espace euclidien de dimension 3 et f la rotation d’axe D dirigé et orienté par un vecteur unitaire
u et d’angle θ. Alors, on a :
(a) Pour tout x vecteur de E
Tr( f ) − 1
cos(θ) = 〈x, f (x)〉 = et sin(θ) = Det(u, x, f (x)).
2
Démonstration.
(a) On commence par le cas où x est orthogonal à u.
- Cas x = 0 : Ok.
x u ∧i
- Cas x 6= 0 : Posons i = et j = u ∧ i = .
kxk kuk
La famille B = (i , j ) est une base orthonormée directe du plan P = D ⊥ .
Pour x ∈ P, f (x) = Rotθ (x) = kxk Rotθ (i ) = kxk(cos θ.i + sin θ. j ) = cos(θ).x + sin(θ).u ∧ x
Revenons au cas général.
Soit x ∈ E et notons p la projection orthogonale sur D et q celle sur D ⊥ . Alors
Puisque f (x) = f (p(x) + q(x)) = p(x) + f (q(x)) avec q(x) ∈ D ⊥ , la formule précédente donne
puis
f (x) = cos(θ).x + (1 − cos(θ)). < x, u > u + sin(θ).u ∧ x.
Det(u, x, f (x)) =< u ∧ x, f (x) > = cos(θ) < u ∧ x, x > + sin(θ)ku ∧ xk2 = sin(θ)
Remarque 3.4 :
Méthode pour déterminer l’image d’un vecteur par une rotation d’axe et d’angle donnés
Soient E un espace euclidien de dimension 3, r une rotation d’angle θ d’axe orienté par u. On suppose u unitaire.
Soit x un vecteur de E . On veut déterminer r (x).
- On calcule la projection orthogonale y de x sur vect(u) : y = (x | u)u. On a alors z = x − y ∈ vect(u)⊥ .
- On calcule l’image de z : r (z) = (cos θ)z + (sin θ)u ∧ z.
- On a alors r (x) = y + r (z).
Exemples 3.3 :
1
Soient B = (i , j , k) une base orthonormée directe de E et f la rotation d’axe D dirigé et orienté par u = p (i + j −k)
3
π
et d’angle θ = .
3
Formons la matrice de f dans la base B .
³π´ 1 ³ π ´ p3
On a cos = et sin = , donc par la formule de la proposition précédente
3 2 3 2
∀x ∈ E , f (x) = cos θ · x + (1 − cos θ) < x, u > u + sin θ · u ∧ x
Plan d’identification :
Soit f l’endomorphisme canoniquement associée à la matrice A.
Ï On vérifie que A T A = I 3 , i.e. A ∈ O 3 (R). Donc f est une isométrie vectorielle.
Ï On vérifie que det(A) = 1. Donc f est une isométrie positive, c’est une rotation d’axe dirigée par u et d’angle θ.
Ï On détermine l’axe Vect(u) de la rotation en résolvant AX = X .
Ï On détermine v, w tels que (u, v, w) soient une base orthonormale directe : il suffit de choisir v orthogonal à u et
de poser w = u ∧ v.
1 0 0
La matrice de f dans la base (u, v, w) est R(θ) = 0 cos θ − sin θ .
0 sin θ cos θ
Si on note P la matrice de la base (u, v, w) dans la base canonique, alors la matrice recherchée est
P R(θ)P −1 = P R(θ)t P .
Ï L’angle de la rotation est donné par : Tr(A) = 1 + 2 cos(θ) et le signe de sin θ.
Le signe de sin θ est le même que celui de [u, x, f (x)] où x est un vecteur quelconque de E : en pratique, on prend
un vecteur de la base canonique. Plus précisément, on a [u, x, f (x)] = det(u, x, f (x)) = sin θ, pour tout vecteur x
unitaire E vérifiant x ⊥ u.
Exemples 3.4 :
p
3 1 6
p
Soit A = 1 3 − 6 . Déterminer la nature géométrique et les éléments caractéristiques de l’endomor-
p p
− 6 6 2
3
phisme de R canoniquement associé à A.
(a) A T A = I 3 et det A = 1. C’est donc une rotation
1 1
1
(b) AX = X ⇐⇒ X ∈ Vect 1 . On pose alors u = p 1 . L’axe de la rotation est Vect( u ).
0 2 0
π
(c) Tr(A) = 2 donc cos θ = ± et on montre que sin θ Ê 0 (il suffit de calculer le det(u, x, f (x)) = sin θ, pour tout
3
π
vecteur x unitaire E vérifiant x ⊥ u.) Donc θ = .
3
Exemples 3.5 :
Soit f l’endomorphisme de E dont la matrice dans une base orthonormée directe B = (i , j , k) est :
0 0 1
A= 1 0 0
0 1 0
Les colonnes de A sont unitaires et deux à deux orthogonales donc A ∈ O 3 (R) puis f ∈ O(E ).
Soit u = xi + y j + zk ∈ E . Après résolution, on obtient : f (u) = u ⇐⇒ x = y = z.
p
3
L’ensemble des vecteurs invariants par f est une droite dirigée par le vecteur u = (i + j + k), on en déduit
3
que f est une rotation autour de la droite D.
Orientons la droite D par le vecteur u et déterminons l’angle θ de cette rotation.
1
Puisque Tr(A) = 1 + 2 cos θ et Tr(A) = 0, on obtient cos θ = − .
2
p ¯¯ 1 1 0 ¯¯ p
3 ¯¯ ¯ 3
Déterminons le signe de θ en évaluant le signe de det(u, i , f (i )) = ¯ 1 0 1 ¯¯ = .
3 ¯ ¯ 3
1 0 0
2π
On en déduit sin θ > 0 puis θ ≡ [2π].
3 p
3 2π
Finalement f est la rotation d’axe dirigé et orienté par u = (i + j + k) et d’angle .
3 3
¡ ¡ ¢¢
2. Isométries négatives f ∈ O − R3
Dans ce cas, det f = −1. Les 3 racines de χ f sont donc −1, ei θ , e−i θ (la valeur −1 éventuellement peut être multiple).
Soit u un vecteur propre associé à la valeur propre −1 : f (u) = −u.
On pose D = Vect(u). D est stable par f et donc D ⊥ stable par f (voir proposition 3.7). Donc, l’endomorphisme
induit f D ⊥ ∈ O 2 (D ⊥ ) serait de déterminant = 1.
Ce qui permet de voir que le bloc matriciel représentatif de f D ⊥ est une rotation du plan D ⊥ .
Ainsi, dans une base orthonormale B adaptée à la décomposition E = D ⊕ D ⊥ , la matrice de f est donnée par :
−1 0 0
M = 0 cos θ − sin θ
0 sin θ cos θ
Il vient alors que f est la composée d’une rotation d’axe dirigé par u et d’angle θ et d’une réflexion par rapport à
Vect(u)⊥ .
Ces deux isométries commutent car les matrices commutent.
Cas particuliers :
- Si θ = π alors f = −idE
−1 0 0
- Si θ = 0 alors M = 0 1 0 , alors f est la réflexion d’hyperplan Vect(x)⊥ .
0 0 1
Plan d’identification :
Soit f l’endomorphisme canoniquement associée à la matrice A.
Ï On vérifie que A T A = I 3 , i.e. A ∈ O 3 (R). f est alors une isométrie vectorielle.
Ï On vérifie que det(A) = −1. Alors A ∈ O 3− (R) et f est la composée d’une rotation d’axe dirigée par u et d’angle θ
et d’une réflexion par rapport à Vect(u)⊥ .
Ï On détermine l’axe Vect(u) de la rotation en résolvant AX = −X .
Ï L’angle de la rotation est donné par : Tr(A) = 1 + 2 cos(θ) et le signe de sin θ est le même que celui de [u, x, r (x)]
où x est un vecteur quelconque de E : en pratique, on prend un vecteur de la base canonique.
Si θ = 0, f est une simple réflexion.
Exemples 3.6 :
−2 −1 2
1
Soit B = − 2 −2 1 . Déterminer la nature géométrique et les éléments caractéristiques de l’endomor-
3
1 2 2
phisme de R3 canoniquement associé à B.
(i) B T B = I 3 et det B = −1.
C’est donc la composée d’une rotation d’axe Vect(u) et d’une réflexion par rapport à Vect(u)⊥ .
1 1
1
(ii) B X = −X ⇐⇒ X ∈ Vect 1 . On pose alors u = p 1 . L’axe de la rotation est Vect (u).
3 11 3
µ ¶ p µ ¶
2 5 11 5
(iii) Tr(B ) = donc θ = ± arccos et on montre que sin θ = − . Donc θ = − arccos .
3 6 6 6
Démonstration.
Si F est stable par u, u(F ) ⊂ F. Notons u F l’application induite par u sur F ; alors u F ∈ L (F ). Comme F ⊂ E , on a :
Donc u F ∈ O(F ).
Soit y ∈ F ⊥ et soit x ∈ F. Comme u F ∈ O(F ), il existe x 0 ∈ F tel que x = u(x 0 ) et
® ®
〈x, u(y)〉 = u(x 0 ), u(y) = x 0 , y = 0
Afin d’étendre ce résultat à un espace de dimension finie quelconque, justifions que l’on peut toujours se ramener
aux dimensions 1 et 2 .
Proposition 3.8
Soit E un R-espace vectoriel de dimension finie et u ∈ L (E ), alors u admet au moins une droite ou un plan stable.
Démonstration.
Notons πu le polynôme minimal d’un endomorphisme u donné.
- Si πu admet un facteur réel de degré 1, u admet une valeur propre réelle donc un vecteur propre associé noté x.
Vect (x) est alors stable par u.
- Sinon, on peut toujours factoriser πu sous la forme : πu = P 1 × · · · × P r où P i est un polynôme unitaire de degré
2 à coefficients réels.
Par définition, πu (u) = P 1 (u) ◦ · · · ◦ P r (u) = 0L (E ) et aucun des P i (u) ne peut être bijectif.
Fixons alors i ∈ 1, r quelconque et x 6= 0E tel que x ∈ Ker P i (u).
Si P i = X 2 + aX + b, u 2 (x) + au(x) + bx = 0E , soit u 2 (x) = −au(x) − bx et Vect (x, u(x)) est stable par u.
Comme x 6= 0, c’est une droite ou un plan.
Proposition 3.9
Soient E un espace euclidien et u ∈ O(E ), alors il existe des sous-espaces vectoriels de E , F 1 , . . . F r , de dimension
égale à 1 ou 2, deux à deux orthogonaux, stables par u et tels que
M
⊥
E= Fj .
1≤ j ≤r
Démonstration.
On procède par récurrence sur la dimension n = dim E Ê 1.
- Pour n = 1 ou 2, le résultat est évident.
- Supposons le acquis pour tout endomorphisme orthogonal sur un espace vectoriel euclidien de dimension p
comprise entre 1 et n − 1, avec n Ê 3.
Si F 1 est un sous espace vectoriel de E non réduit à {0} de dimension au plus égale à 2 stable par u ∈ O(E ) (l’existence
est justifiée via la proposition précédente) alors F 1⊥ est stable par u.
Comme 1 É n − 1 É dim F 1⊥ É n − 1, on peut trouver des sous espaces vectoriels de E , F 2 , · · · , F r , de dimension
Mr
au plus 2, deux à deux orthogonaux et stables par la restriction de u à F 1⊥ , donc par u, tels que F 1⊥ = Fj .
j =2
M
r
On a alors E = F 1 ⊕ F 1⊥ = Fj .
j =1
Théorème 3.2
Soient E un espace euclidien de dimension n et u ∈ O(E ) avec n Ê 2, alors il existe une base orthonormée B de E
dans laquelle la matrice de u s’ecrit :
Ip 0 ··· ··· 0
.. ..
0 −I q . .
.. .. .. ..
D = . . R1 . .
.. .. ..
. . . 0
0 ··· ··· 0 Rr
Démonstration.
On procède par récurrence sur la dimension n Ê 2 de E .
- Pour n = 2, c’est fait avec l’étude des isométries vectorielles d’un plan euclidien.
- Supposons le résultat acquis pour les isométries vectorielles sur les espaces euclidiens de dimension p
comprise entre 2 et n − 1 et soit u ∈ O(E ) avec n = dim(E ) Ê 3.
• Si u admet 1 ou −1 comme valeur propre, pour tout vecteur propre unitaire e 1 associé à cette valeur propre,
le sous-espace vectoriel H = Vect(e 1 )⊥ est stable par u et il existe alors une base orthonormée B1 de H dans laquelle
avec θk ∈] 0, 2π[\{π}.
En réunissant toutes ces bases, on obtient une base orthonormée de E dans laquelle la matrice de u est :
R1 0 ··· 0
.. ..
0 R2 . .
A=
..
.. ..
. . . 0
0 ··· 0 Rr
Remarque 3.5 :
On a p = dim(Ker (u − IdE )) et q = dim(Ker (u + IdE )) avec p + q + 2r = n.
De plus u ∈ O + (E ) (resp. u ∈ O − (E )) si, et seulement, si q est pair (resp. impair).
Corollaire 3.4
Démonstration.
A est la matrice dans la base canonique Rn d’une isométrie vectorielle u et la matrice de passage P de la base
canonique à une base orthonormée dans laquelle la matrice de u à la forme indiquée est orthogonale,
donc telle que P −1 = t P .
µ ¶
Ip 0
3. Si de plus F est de dimension p alors Mat(s) = dans une base adaptée.
0 −I n−p
4. Sp(s) ⊂ {−1, 1} et χs = (X − 1)p (X + 1)n−p .
Théorème 3.3
Démonstration.
Voir la démonstration du théorème 4.4 du chapitre précédent ESPACES PRÉHILBERTIENS.
Soit E un espace euclidien, s ∈ L (E ) une symétrie vectorielle, i.e. s 2 = IdE et B une base orthonormale de E ,
alors
s est une symétrie orthogonale ⇐⇒ MatB (u) est symétrique.
Démonstration.
Supposons que s soit une symétrie vectorielle. Soit M la matrice de s dans une base orthonormale.
On a M 2 = I n donc M −1 = M .
s est une symétrie orthogonale si et seulement si s est de plus orthogonale, c’est-à-dire
si et seulement si M ∈ O n (R) (base orthonormale).
Cela s’écrit encore M −1 = M T = M .
¡ ¢
Symétries orthogonales du plan E = R2
On considère E = R2 .
y
M = (x, y)
E XERCICE 1 :
µ ¶
1 3 4
Identifier l’endomorphisme s de R2 dont la matrice dans la base canonique est M = .
5 4 −3
¡ ¢
Symétries orthogonales de l’espace E = R3
4 Endomorphismes symétriques
Remarque 4.0 :
Les endomorphismes symétriques sont également qualifiés d’endomorphismes auto-adjoints.
Proposition 4.1
Soient (E , 〈· | ·〉) un espace vectoriel euclidien et u ∈ S(E ) alors (Im u)⊥ = Ker (u).
Démonstration.
Soient x ∈ Ker u et y ∈ Im u, alors ∃z ∈ E , y = u(z) alors on a
¯ ®
x ¯ y = 〈x | u(z)〉 = 〈z | u(x)〉 = 〈z | 0〉 = 0
Ainsi, les espaces Im u Ker u sont orthogonaux et donc (Im u)⊥ ⊂ Ker u.
Or E est de dimension finie donc E = Im u ⊕ (Im u)⊥ donc dim E = dim(Im u) + dim(Im u)⊥ .
D’autre part, le théorème du rang permet d’écrire dim E = dim(Im u) + dim(Ker u).
Ce qui implique que dim(Im u)⊥ = dim(Ker u). Ce qui permet de conclure que (Im u)⊥ = Ker u.
Proposition 4.2
Soient (E , 〈· | ·〉) un espace vectoriel euclidien, p, s ∈ L (E ). On suppose que p est un projecteur vectoriel (p 2 = p)
et s est une symétrie vectorielle (s 2 = IdE ). Alors
1. p est un endomorphisme symétrique ⇐⇒ p est un projecteur orthogonal.
2. s est un endomorphisme symétrique ⇐⇒ s est une symétrie orthogonale.
Démonstration.
Voir les démonstrations des théorèmes 4.3 et 4.4 du chapitre précédent ESPACES PRÉHILBERTIENS.
Soient (E , (·, ·)) un espace vectoriel euclidien, (e 1 , . . . , e n ) une base orthonormale de E et u ∈ L (E ). Alors :
¡ ¢ ¡ ¡ ¢¢
u est symétrique ⇐⇒ ∀ i , j ∈ 1, n, u (e i ) | e j = e i | u e j
Démonstration.
X
n X
n
L’implication est évidente, justifions la réciproque. Soit x, y ∈ E .x = x i e i et y = yjej
i =1 j =1
à !
X
n X
n X
n X
n ¡ ¢ Xn X
n ¡ ¡ ¢¢
(u(x) | y) = x i u (e i ) | yjej = x i y j u (e i ) | e j = x i y j e i | u e j = · · · = (x | u(y))
i =1 j =1 i =1 j =1 i =1 j =1
Corollaire 4.1
Démonstration.
Soit B une base orthonormale de E et M = MatB (u) avec u ∈ L (E ).
¡ ¢ X n ¡ ¡ ¢ ¢ ¡ ¡ ¢ ¢ ¡ ¢ ¡ ¢
On a u e j = u e j | e i e i donc m i , j = u e j | e i , d’où m j ,i = u (e i ) | e j = e j | u (e i ) .
i ,1
¡ ¡ ¢ ¢ ¡ ¢
M T = M ⇐⇒ ∀i , j ∈ 1, nm i , j = m j ,i ⇐⇒ ∀i , j ∈ 1, n u e j | e i = e j | u (e i ) ⇐⇒ u ∈ S(E ).
Proposition 4.3
n(n + 1)
L’ensemble S(E ) est un sous-espace vectoriel de L (E ) de dimension .
2
Démonstration.
On vérifie facilement que S(E ) est un sous-espace vectoriel de L (E ).
Soit B une base orthonormale de E alors
½
S(E ) −→ S n (R)
Φ:
u 7−→ MatB (u)
est un isomorphisme d’espaces vectoriels car son noyau est réduit au vecteur nul de S(E ) et donc S(E ) ait la même
n(n + 1)
dimension que S n (R) qui est .
2
2
Démonstration.
Supposons F stable par u ∈ S(E ).
Soit x ∈ F ⊥ alors ∀y ∈ F, (u(x) | y) = (x | u(y)) = 0 car x ∈ F ⊥ et u(y) ∈ F .
Donc u(x) ∈ F ⊥ et F ⊥ est bien stable par u.
Proposition 4.5
Soit (E , 〈· | ·〉) un espace vectoriel euclidien et u ∈ S(E ) un endomorphisme symétrique de E . Alors les sous-espaces
propres de u sont orthogonaux deux à deux.
Démonstration.
Soient λ, λ0 deux valeurs propres
¯distinctes
® ¯ et x,
0
®x deux vecteurs
propres
¯ 0® correspondants
¯ 0® : u(x) = λx, u(x 0 ) = λ0 x 0 .
¯ 0 ¯ 0 ¯ 0 ¯
Comme u est symétrique : u(x) ¯ x® = x u(x ) , c’est-à-dire λ x x = λ x x .
Comme λ 6= λ0 , on en déduit x ¯ x 0 = 0.
Ainsi les sous-espaces propres associés à λ et λ0 sont orthogonaux.
Proposition 4.6
Soit E un espace vectoriel euclidien, u ∈ S(E ) et A sa matrice dans une base orthonormale de E . Alors les valeurs
propres de A sont toutes réelles.
De ce fait, χu est scindé dans R[X ].
Démonstration.
Soit A la matrice de u dans une base orthonormale B . Le polynôme caractéristique de A est scindé dans C[X ].
Soit λ une valeur propre complexe de A : il existe une matrice unicolonne X ∈ Mn,1 (C) non nulle telle que AX = λX .
Ainsi t (AX ) = λt X , et comme A est symétrique il vient : t X A = λt X , d’où : t X A X = λt X X .
D’autre part, comme A est réelle, A = A, d’où : A X = λ X , et t X A X = λt X X .
En définitive λt X X = λt X X , et comme t X X 6= 0, il vient λ = λ et λ est bien réel.
Proposition 4.7
Tout endomorphisme symétrique dans un espace euclidien de dimension 2 est diagonalisable dans une base
orthonormale.
Démonstration.
Supposons E de dimension 2 et considérons un endomorphisme symétrique u. µ ¶
a b
Dans une base orthonormale, la matrice de u est symétrique, donc de la forme : avec a, b, c ∈ R.
b c
2
¡ 2
¢
χu = X − (a + c)X + ac − b .
Son discriminant ∆ = (a − c)2 + 4b 2 est positif ou nul. Deux possibilités :
- χu admet deux racines réelles distinctes, auquel cas u est diagonalisable.
Les deux droites propres sont orthogonales donc la propriété est démontrée.
- χu admet une racine double mais alors a = c et b = 0 puisque ∆ = 0, donc u = a IdE .
u est là encore diagonalisable dans une base orthonormale.
Si u est un endomorphisme symétrique de E alors u est diagonalisable dans une base orthonormale.
Autrement dit, il existe une base orthonomale B formée de vecteurs propres de u où
λ1 0 ··· 0
.. ..
0 λ2 . .
MatB (u) =
..
. .. ..
. . 0
0 ··· 0 λn
avec λ1 , λ2 , . . . , λn sont les valeurs propres réelles, non nécessairement distinctes, de u et on a :
M
⊥
E= E λ (u).
λ∈Sp(u)
Démonstration.
M
Soit F = E λ (u) la somme directe des sous-espaces propres de u.
λ∈Sp(u)
Le sous-espace vectoriel F est stable par u, donc son supplémentaire orthogonal F ⊥ est également stable par u.
Si F ⊥ 6= {0}, alors la restriction de u à F ⊥ est aussi un endomorphisme symétrique de F ⊥ et a donc au moins
une valeur propre réelle, d’où F ⊥ ∩ F 6= {0}, ce qui est absurde.
On en conclut que F ⊥ = {0}, d’où F = E : ainsi E est somme directe des sous-espaces propres.
Donc u est diagonalisable.
En choisissant une base orthonormale dans chaque sous-espace propre, on constitue une base orthonormale
de vecteurs propres de u.
2
On en déduit la version matricielle du théorème spectral.
Toute matrice A ∈ S n (R) est diagonalisable au moyen d’une matrice de passage orthogonale, i.e.
il existe une matrice diagonale D ∈ Mn (R) et une matrice orthogonale P ∈ O n (R) telles que :
A = P DP −1 = P D t P.
Démonstration.
Si A est la matrice de u dans une base orthonormale B et si B 0 est une base orthonormale de vecteurs propres de u,
alors la matrice de passage P de B à B 0 est orthogonale, c’est-à-dire P −1 = t P . D’où :
A = P DP −1 = P D t P .
2
Exemples 4.0 :
6 2−2
La matrice M = −2 0 est symétrique réelle donc diagonalisable au moyen d’une matrice de passage
5
2 70
−2 −1 −2
1
orthogonale. On trouve χM = (X − 3)(X − 6)(X − 9) et P = −2 2 1 .
3
1 2 −2
On peut déterminer le dernier vecteur propre à l’aide du produit vectoriel des deux premiers.
On remarquera que P est la matrice d’une rotation (passage d’une b.o.n.d. à une b.o.n.d).
Remarque 4.1 :
Le résultat ne s’étend
µ ¶pas aux matrices à coefficients complexes.
1 i
Exemple : A = . Elle est symétrique mais non diagonalisable.
i −1
En effet, si elle était diagonalisable, alors comme son polynôme caractéristique est X 2 , son polynôme minimal serait
X et donc on aurait M = 0M2 (C) .