Académique Documents
Professionnel Documents
Culture Documents
hl
ak
Cours Math II
Deuxième année PT-PC
M
Écrit par :
n
Le Professeur Agrégé
hl
ak
Table des matières :
M
ou
Espace vectoriel, endomorphisme et
hl
matrice
K désigne le corps R ou C.
ak
I Rappels
M
1. Espace vectoriel
• Interne (+) :
E×E →E
n
(x, y) 7→ x + y
• Externe (·) :
Be
K×E →E
(α, x) 7→ α · x
3
∗ α · (x + y) = α · x + α · y.
∗ (α β) · x = α · (β · x).
∗ 1K · x = x.
Exemples :
• K[X], R[X], C[X].
ou
• R est R Espace vectoriel de dim 1.
• C est C Espace vectoriel de dim 1.
• C est R Espace vectoriel de dim 2.
• Ck ([a, b], (R) ; [a, b] ⊂ R, k ∈ N) est un R espace vectoriel.
hl
• (Mn (R), +, ·) est un R.e.v.
Exercices :
1) Soit P ∈ R[X] avec deg P = n + 1 ; n ∈ N. On note F = {Q × P, Q ∈ R[X]}.
Be
On a
• F ⊂ R[X].
• 0R[X] = 0R[X] × P donc 0R[x] ∈ F .
• Soit Q1 , Q2 ∈ R[X] et α ∈ R. On a : α(Q1 × P ) + (Q2 × P ) = (αQ1 + Q2 ) × P ∈ F .
2) On note :
F1 = {f : R → R tq f est paire},
F2 = {f : R → R tq f est impaire}.
ou
F1 et F2 sont des sous e.v de F (R, R) où F (R, R) l’espace vectoriel des applications
de R dans R.
• F1 ⊂ F (R, R).
• 0F (R,R) ∈ F1 .
• Soient f, g ∈ F1 et α ∈ R. Soit x ∈ R,
hl
(αf + g)(−x) = αf (−x) + g(−x)
= αf (x) + g(x) .
= (αf + g)(x)
D’où F1 est un s.e.v de F (R, R).
ak
3) On note :
• Sn (R) = {A ∈ Mn (R) tq t A = A}.
M
• An (R) = {A ∈ Mn (R) tq t A = −A}.
Montrons que Sn (R) et An (R) sont des s.e.v de Mn (R). On a :
• Sn (R) ⊂ Mn (R).
• 0Mn (R) ∈ Sn (R).
• Soient A, B ∈ Sn (R) et α ∈ R. Montrons que αA + B ∈ Sn (R) ?
n
On a t (αA + B) = α t A +t B = αA + B.
D’où Sn (R) est un s.e.v de Mn (R).
Be
ou
C’est le plus petit sous e.v de E contenant A.
C’est aussi l’intersection de tous les s.e.vs de E contenant A.
Exemple : Si A = {x1 , · · · , xn } ⊂ E, alors
n
X
vect(A) = { αi xi ; αi ∈ K, ∀i ∈ [|1, n|]}.
hl
i=1
Remarques :
• Si A est un s.e.v de E alors V ect(A) = A.
• Si A ⊂ B (A, B deux parties de E) alors vect (A) ⊂ vect (B).
3.
ak
Famille libre, Famille génératrice et Base :
La famille (U1 , · · · , Un ) est liée dans E si l’un de ses vecteurs est une combinaison linéaire
des autres :
n
X
Il existe k ∈ [|1, n|] tel que Uk = λi Ui avec λi ∈ K, ∀i ∈ [|1, n|] et i 6= k .
Be
i=1,i6=k
Proposition : Toute famille de polynômes non nuls de degré deux à deux distincts
est libre.
Exercice :
Soit S = (x1 , · · · , xn ) une famille libre de E et x ∈ E.
ou
i=1
supposons que µ est nul,
n
X
⇒ αi xi = 0E et α1 , · · · , αn non tous nuls. Absurde, car S est libre.
i=1
n
X −αi
Donc µ 6= 0 et x = ( )xi . Par suite x ∈ vect (S).
i=1 µ
hl
Famille génératrice :
i=1
α i xi .
Soit (S) une famille de E, (S) est une base de E si (S) est libre et génératrice de E.
Si dim E = n alors (S) est une base de E si :
• (S) libre + card(S) = n.
• (S) génératrice + card(S) = n.
n
Proposition :
De toute famille génératrice de E, on peut extraire une base de E.
Be
4. Application linéaire :
Définition
∀α ∈ K,
f (αx) = αf (x).
ou bien : ∀x, x0 ∈ E, α ∈ K, f (αx + x0 ) = αf (x) + f (x).
ou
Imf = {f (x), x ∈ E} ⊂ E 0
= f (E).
Kerf = {x ∈ E, f (x) = 0E 0 }
hl
= f −1 ({0E 0 }).
Proposition :
Soit f une application linéaire de E dans E 0 .
ak
(1) f surjective si et seulement si Im f = E 0 .
(2) f injective si et seulement si Kerf = {0E }
En effet, f inj signifie que pour tout x, y ∈ E, si f (x) = f (y) ⇒ x = y.
Comme f est linèaire, on obtient :
M
f (x − y) = 0E 0 ⇒ x − y = 0E .
on pose X = x − y, donc
n
f (X) = 0E 0 ⇒ X = 0E .
Notation :
Be
ou
2. Si F 0 est un s.e.v de E 0 alors f −1 (F 0 ) est un s.e.v de E.
Preuve :
1)Soit F sous e.v de E, Mq f (F ) s.e.v de E 0 ?
• f (F ) ⊂ E 0 .
hl
• 0E 0 = f (0E ), donc 0E 0 ∈ f (F ).
• Soit α ∈ K et x, y ∈ f (F ).
Montrons que : αf (x) + f (y) ∈ f (F ) ?
| {z }
∈F
ak
On a : αf (x) + f (y) = f (αx + y ), d’où αf (x) + f (y) ∈ f (F ).
Conclusion : f (F ) s.e.v de E 0 .
On a f −1 (F ) = {x ∈ E tq f (x) ∈ F 0 }.
M
• f −1 (F 0 ) ⊂ E.
• f (0E ) = 0E 0 ∈ F 0 d’où 0E ∈ f −1 (F 0 ).
• Soit x1 , x2 ∈ f −1 (F 0 ), α ∈ K
Montrons que αx1 + x2 ∈ f −1 (F 0 ) ?
n
E.
Soit f une application linéaire de E dans E 0 .
ou
Preuve :
hl
X
On a : x ∈ E ⇒ existe α1 , · · · , αn ∈ K tq x = αi ei .
i=1
on a : y = f (x),
n
X
= f( αi ei ), Donc f (B) est une famille génératrice de Imf .
⇒ y =
n
X
i=1
i=1
ak
αi f (ei ).
n
X
2. f surjective ssi Im f = E 0 . C.à.d ∀y ∈ E 0 , ∃ α1 , · · · , αn ∈ K tq y = αi f (ei ).
i=1
3. ” ⇒ ” Soit x ∈ E tq f (x) = 0E 0 .
M
n
X
Donc x = αi ei avec αi ∈ K, ∀i ∈ [|1, n|].
i=1
n
X n
X
On obtient : f (x) = 0E 0 ⇔ f ( αi ei ) = 0E 0 ⇔ αi f (ei ) = 0E 0 .
i=1 i=1
0
Comme f (B) est libre dans E ⇒ αi = 0, ∀i ∈ [|1, n|].
donc x = 0E et par suite Kerf = 0E . D’où f injective.
n
Soit α1 , · · · , αn ∈ K tq αi f (ei ) = 0E 0 .
i=1
n
X n
X
On a αi f (ei ) = f ( αi ei ) = 0E 0 .
i=1 i=1
n n
αi ei ) = 00E , donc
X X
Comme f est injective et f ( αi ei = 0E et on sait que B est
i=1 i=1
une base de E donc αi = · · · = αn = 0.
Soit f une application linéaire de E dans E 0 avec E, E 0 deux K.e.v de dim respectives
n et p ∈ N∗ . Soient B = (e1 , · · · , en ) une base de E et B 0 = (e01 , · · · , e0p ) une base de E 0 .
La matrice de f dans les bases B et B 0 est notée :
f (e1 ) . . . f (en )
ou
0
· ··· · e01
∈ Mp,n (K).
A = M (f, B, B ) =
.. .. .. ..
. . .
.
· ... · e0p
hl
Exemple :
Soit f l’endomorphisme de R3 [X] tq f (P )(X) = 2P (X) − P 0 (X), ∀P ∈ R3 [X].
Ecrire la matrice A de f dans la base canonique de R3 [X].
ak
On a Bc = (1, X, X 2 , X 3 ) donc f (1) = 2; f (X) = 2x − 1; f (X 2 ) = 2X 2 − 2X et
f (X 3 ) = 2X 3 − 3X 2 .
f (1) f (X) f (X 2 ) f (X 3 )
2 −1 0 0 1
M
⇒A=
0 2 −2 0
X
0 0 2 −3
X2
0 0 0 2 X3
x1
.
On note X = .. le vecteur coordonnées de x dans B
xn
B
ou
Définition :
on appelle matrice de passage de la base B à la base B 0 la matrice carrée P dont la jème
colonne est formée par les composantes de e0 j dans la base B.
0
e ··· e0j · · · e0n
hl
1
e1
= M (IdE , B 0 , B).
P =
..
.
en
e ···
1
0
ak
e0j · · · e0n
e01
P −1 = = M (IdE , B, B 0 ).
..
.
M
e0n
Exemple :
0
e e02
1
P = 2 −3 e1
1 5 e2
n
(1) e01
= 2e1 + e2 ,
Be
(2) e0 = −3e1 + 5e2 .
2
ou
• Pour les vecteurs : Soient x ∈ E, B et B 0 deux bases de E avec B = (e1 , · · · , en ) et B 0 =
(e01 , · · · ,e0n ).
x1
.
Si X = .. , le vecteur coordonnées de x dans B et
hl
xn
B
0
x1
0
.. 0
X = . ,le vecteur coordonnées de x dans B , alors
x02
B0
ak
X0 = P−1 X ⇒ X = PX0 .
f (e01 ) . . . f (e0n )
0 · ... · e01
A = MB 0 (f ) = .
.. .. .. ..
. . .
.
· ... · e0n
La matrice de passage de B à B 0 :
ou
on a
A0 = P−1 AP.
hl
Soit f ∈ L(E, E 0 ) avec E, E 0 deux K.e.v.
Définition : ak
Si dim Imf ≤ ∞, le rang de f c’est la dimension de Imf et on écrit rg(f ) = dim Imf .
Remarque :
• On a Imf < E 0 donc rg(f ) ≤ dim E 0 .
M
• Soit B = (e1 , · · · , en ) une base de E. On sait que f (B) = (f (e1 ) · · · f (en ))
est une famille génératrice de Imf . Donc
dim Imf = rg(f ) ≤ card (f (B)) = card (B) = dim E
⇒ rg (f ) ≤ dim E
Par suite, si dim E < ∞ et dim E 0 < ∞ : rg (f ) ≤ inf(dim E, dim E 0 ).
n
Théorème noyau-image :
Théorème
Be
Preuve :
Soit G un supplémentaire du Kerf dans E.
Montrons que G est isomorphe à Imf ?
On a : f˜(x) = f (x), ∀x ∈ G.
Kerf˜ = {x ∈ G tq f˜(x) = 0E },
ou
= {x ∈ G tq f (x) = 0E }, .
hl
Donc il existe un unique couple (x1 , x2 ) ∈ Kerf × G tq x = x1 + x2 .
On obtient : y = f (x) = f (x1 ) + f (x2 ) = 0E + f (x2 ) = f (x2 )
avec x2 ∈ G ⇒ y = f˜(x2 ).
⇒ f˜ est surjective.
ak
Conclusion : f˜ est linéaire bijective ⇒ f˜ est un isomorphisme de G dans Im f
Théorème du rang :
Théorème
M
Soit f ∈ L(E, E 0 ) où E, E 0 deux K e.v. avec dim E < ∞, alors
Preuve :
n
Or G est isomorphe à Imf , ce qui implique que dim G = dim Imf = rg(f ).
Par suite, rg(f ) + dim Kerf = dim E.
Propositions :
ou
II Produits et Sommes de s.e.v :
hl
1. Produits de s.e.v :
Définition :
Soient E1 , · · · , En n K e.v. on appelle produit des e.v E1 , · · · , En , l’ensemble :
n
E1 × · · · × En =
on définit sur
n
Y
Y
i=1
Ei deux lois :
ak
Ei = {(x1 , · · · , xn ), xi ∈ Ei , ∀i ∈ [|1, n|]}.
i=1
n
Y
Be
(x1 , · · · , xn ) ∈ Ei et λ ∈ K.
i=1
Théorème :
Preuve :
ou
Soit : .
B 0 = (f1 , · · · , fp ) une base de E2
hl
n
X p
X
Soit (x, y) ∈ E1 × E2 , on a x = xi ei et y = y j fj .
i=1 j=1
n
X p
X
(x, y) = ( xi e i , yj fj ),
i=1 j=1
Xn p
X
=(
=
i=1
n
X
xi (ei , 0E2 ) +
ak
xi ei , 0E2 ) + (0E1 ,
p
X
j=1
yj fj ),
yi (0E1 , fj ).
i=1 j=1
⇒ F est génératrice de E1 × E2 .
M
• Montrons que F est libre dans E1 × E2 ?
Soit α1 , · · · , αn , β1 , · · · , βp ∈ K, tels que :
n
X p
X
αi (ei , 0E2 ) + βi (0E1 , fj ) = (0E1 , 0E2 ).
i=1 j=1
Xn p
X
⇒ ( αi ei , 0E2 ) + (0E1 , βj fj ) = (0E1 , 0E2 ).
i=1 j=1
Xn p
X
⇒ ( αi ei , βj fj ) = (0E1 , 0E2 ).
n
i=1 j=1
Donc :
Be
n
X
αi e i = 0E1
αi = 0 , ∀ i ∈ [|1, n|].
i=1
Xp ⇒
βj = 0 , ∀ j ∈ [|1, p|].
βj fj = 0E2
j=1
Exemple
Si E1 = vect(x1 , x2 ),et E1 = vect(y1 , y2 , y3 ).
⇒ une base de E1 × E2 ={(x1 , 0E2 ), (x2 , 0E2 ), (0E2 , y1 ), (0E2 , y2 ), (0E2 , y3 )}.
ou
i=1 i=1
n+1
Y n
Y
dim Ei = dim( Ei × En+1 )
i=1 i=1
Yn
= dim Ei + dim En+1
i=1
n
X
hl
= dim Ei + dim En+1
i=1
n+1
X
= dim Ei .
i=1
X
Fi = {x = x1 + · · · + xn avec xi ∈ Fi , ∀i ∈ [|1, n|]}.
1≤i≤n
Théorème :
n
X
1. Fi est un sous-espace de E.
1≤i≤n
X n
2. Fi = vect( ∪ Fi ).
i=1
Be
1≤i≤n
Remarque :
La réunion de sous-espaces vectoriels de E n’est pas un sous espace vectoriel (en cas gé-
néral). En effet si E est un K e.v de dim E ≥ 2. Soit (x1 , x2 ) une famille libre de E.
On note : F1 = hx1 i et F2 = hx2 i.
On a x1 ∈ F1 ⊂ F1 ∪ F2 et x2 ∈ F2 ⊂ F1 ∪ F2 .
Preuve :
ou
X
1. On a : Fi ⊂ E.
1≤i≤n
n
X
On a 0E = 0F1 + · · · + 0Fn ⇒ 0E ∈ Fi
i=1
n
X n
X
Soit x = xi et y = yi tel que xi , yi ∈ Fi , ∀i ∈ [|1, n|].
hl
i=1 i=1
n
X n
X n
X
Soit α ∈ K, on a : αx + y = α xi + yi = (αxi + yi ).
| {z }
i=1 i=1 i=1
X X ∈F i
d’où αx + y ∈ Fi . donc Fi est un sous-espace de E.
1≤i≤n 1≤i≤n
n
2. Montrons que
00
⊂00 Montrons que
X
i=1
n
X
ak
Fi = vect( ∪ Fi )
i=1
n
Fi ⊂ vect( ∪ Fi )
n
i=1
i=1
n
X Y n
X
Soit x ∈ Fi ⇒ ∃ (x1 , · · · , xn ) ∈ Fi tel que x = xi .
i=1 1≤i≤n i=1
n
M
Soit j ∈ [|1, n|], on a xj ∈ ∪ Fi .
i=1
n
n X n
⇒ xj ⊂ ∪ Fi , ⇒ x = xi ∈ vect( ∪ Fi ).
i=1 i=1
j=1
n
X n
d’où Fi ⊂ vect( ∪ Fi ).
i=1
i=1
n
n X
00
⊃00 vect( ∪ Fi ) ⊂ Fi .
i=1
i=1
n
n n
X n X
Soit j ∈ [|1, n|], on a Fj ⊂ Fi ⇒ ∪ Fj ⊂ Fi .
j=1
i=1 i=1
n X
Par suite vect( ∪ F i) ⊂ vect( Fi ).
i=1
Be
1≤i≤n
X n X
Comme Fi est un sous espace vectoriel de E donc vect( ∪ F i) ⊂ Fi .
i=1
1≤i≤n 1≤i≤n
Définitions :
X
∀j ∈ [|1, n|], Fj ∩ Fi = {0E }.
1≤i≤n
i6=j
ou
On la note : ⊕ Fi .
1≤i≤n
Théorème :
Soit F1 , · · · , Fn , n sous evs de E. Les propositions suivantes sont équivalentes :
hl
X
1. Fi est directe.
1≤i≤n
n
X Y
2. Pour tout x ∈ Fi , il existe un unique n-uplet (x1 , · · · , xn ) ∈ Fi tel que
i=1 1≤i≤n
n
X
x=
n
X
i=1
xi .
i=1
i6=j
n
X
00 00
2 ⇒ 3 On a : 0E = xi , avec xi ∈ Fi , i ∈ [|1, n|].
i=1
On sait que 0E = 0E + · · · + 0E , d’après l’unicité de l’écriture ⇒ xi = 0E , ∀i ∈ [|1, n|].
00
3 ⇒ 100
n
X
Soit j ∈ [|1, n|]. Montrons que Fj ∩ Fi = {0E } ?
i=1
i6=j
n
X
Soit x ∈ Fj ∩ Fi , donc 0E = x1 + · · · + xj−1 + (−x) + xj + xj+1 + · · · + xn .
i=1
i6=j
Proposition :
Soit F1 , · · · , Fn , n sous evs de E.
n
Y n
X
on considère l’application : ϕ : Fi −→ Fi
ou
i=1 i=1
Xn
(x1 ,··· ,xn )7−→ xi
i=1
1. ϕ est une application linéaire surjective.
X
2. ϕ est un isomorphisme ssi Fi est directe.
1≤i≤n
hl
Preuve :
Y Y
1. Soit (x1 , · · · , xn ) ∈ Fi , (y1 , · · · , yn ) ∈ Fi et α ∈ K.
1≤i≤n 1≤i≤n
ak
ϕ(α(x1 , · · · , xn ) + (y1 , · · · , yn )) = ϕ(αx1 + y1 , · · · , αxn + yn )
=
n
X
(αxi + yi )
i=1
n
X n
X
=α xi + yi
i=1 i=1
= αϕ(x1 , · · · , xn ) + ϕ(y1 , · · · , yn ).
M
Donc ϕ est linéaire.
n
X n
Y n
X
Soit x ∈ Fi ⇒ ∃(x1 , · · · , xn ) ∈ Fi tel que x = xi = ϕ(x1 , · · · , xn ).
i=1 i=1 i=1
Par suite, ϕ est surjective.
n
X n
X n
Y
2. Fi est directe sig ∀x ∈ Fi il existe un unique n−uplet (x1 , · · · , xn ) ∈ Fi
n
Théorème
Soient F1 , · · · , Fn des sous evs de E de dim finie.
n
X n
X
1. dim( Fi ) ≤ dim Fi .
i=1 i=1
n
X n
X n
X
2. Fi est directe ssi dim( Fi ) = dim Fi .
i=1 i=1 i=1
1. Soit l’application :
n
Y X
ϕ: Fi → Fi
i=1 1≤i≤n
n
X
(x1 , · · · , xn ) 7→ xi .
i=1
ou
n
Y n
X
Si B est une base de Fi alors ϕ(B) est une famille génératrice de Im ϕ = Fi
i=1 i=1
car ϕ est surjective.
n
X
⇒ f (B) est f −génératrice de Fi .
i=1
n n
hl
X Y X
On obtient dim( Fi ) ≤ card(f (B)) = card(B) = dim( Fi ) = dim Fi
1≤i≤n i=1 i=1
X X
⇒ dim( Fi ) ≤ dim Fi .
1≤i≤n 1≤i≤n
Xn n
X n
Y
2. (⇒) Si Fi est directe alors ϕ est un isomorphisme ⇒ Fi et Fi sont iso-
i=1
i=1
n
X
ak
Fi ) =
n
X
i=1
dim Fi .
n
X n
Y
i=1 i=1
n
X n
X
tq x = xi d’où Fi est directe.
i=1 i=1
Be
Définition
Soient F1 , F2 deux sous-evs dans E, on dit que F1 et F2 sont supplémentaires dans E
F 1 ∩ F2 = {0E },
si F1 ⊕ F2 = E sig
E
= F1 + F2 .
1. E = F1 ⊕ F2
ou
Preuve :
(1) ⇒ (2) : on a E = F1 + F2 , donc
pour tout x ∈ E, ∃(x1 , x2 ) ∈ F1 × F2 tq x = x1 + x2 .
hl
si x = x01 + x02 , avec x01 ∈ F1 et x02 ∈ F2 , alors
x = x1 + x2 = x01 + x02 ⇒ x1 − x01 = x2 − x02
∈F1 ∈F1
Or F1 ∩ F2 = {0E }.
Par suite x1 − x01 = x02 − x2 = 0 ⇒ x1 = x01 et x02 = x2 .
ak
Théorème (dim finie)
dim E
= dim F1 + dim F2 .
ssi
2. Si E = F1 ⊕ F2 avec dim E = n.
Si BF1 est une base de F1 et BF2 est une base de F2 , alors B = BF1 ∪ BF2 est une
base de E qu’on appelle base de E adoptée à la décomposition E = F1 ⊕ F2 .
Preuve :
On a : E = F1 ⊕ F2 . On note p = dim F1 , p ≤ n. Soient
p
X n
X
x= αi ei + αi ei , αi ∈ K, ∀i ∈ [[1, n]].
i=1 i=p+1
D’où B = BF1 ∪ BF2 est génératrice de E et comme card(B) = dim E ⇒ B est une
ou
base de E.
Exercices :
hl
2. Mq : P (R, R) ⊕ I(R, R) = F (R, R).
A1 + tA2 = A1 − A2 .
alors tA = t
A = A1 + A2 (1)
on obtient
= A1 − A2
tA
(2)
1
(1) + (2) ⇒ A + tA = 2A1 ⇒ A1 = (A + tA ).
2
n
remarque : On peut remarquer que cette décomposition est unique et ne pas étu-
dier l’intersection de Sn (R) et An (R).
ou
f (−x) + f (x)
f1 (−x) = = f1 (x), ∀x ∈ R ⇒ f1 est paire.
2
f (−x) − f (x)
f2 (−x) = = −f2 (x), ∀x ∈ R ⇒ f1 est impaire.
2
donc F (R, R) = P (R, R) + I(R, R).
Finalement, F (R, R) = P (R, R) ⊕ I(R, R).
hl
3. Soit S ∈ K[X], on a deg P = n + 1, n ∈ N, donc P est non nul.
D’après le théorème de la division euclidienne dans K[X], il existe un unique couple
(Q, R) ∈ (K[X])2 avec deg R < deg P = n + 1 tels que S = P Q + R, P Q ∈
P K[X], R ∈ Kn [X].
d’où le résultat.
ak
Application : Trouver un supplémentaire de K5 [X] dans K[X].
M
On prend P (X) = X 6 donc X 6 K[X] est un supplémentaire de K5 [X] dans K[X].
Il suffit de choisir un polynôme de degré 6.
Un supplémentaire de X 2021 K[X] dans K[X] est K2020 [X].
Définition :
n
X
E
= Fi .
i=1
On écrit E = ⊕ Fi .
1≤i≤n
Théorème :
Soit F1 , · · · Fn n.s.ev d’un K espace vectoriel E.
Théorème
Soient F1 , · · · Fn n.s.ev de E avec dim E < ∞.
ou
n
X n
X
E= ⊕ Fi ssi dim E = dim Fi = dim( Fi ).
1≤n≤n i=1 i=1
Base adaptée :
Soient E un K ev de dim finie et F1 , · · · , Fn , n s.ev de E. tels que E = ⊕ Fi .
hl
1≤n≤n
Si Bi est un base de Fi , ∀i ∈ [|1, n|], alors B = ∪ Bi est une base de E, qu’on appelle
1≤n≤n
& x∈G
D’après (*) x = 0E ⇒ F1 ∩ G = {0E }
Soit x ∈ F + G, il existe un couple (x1 , x2 ) ∈ F × G tq x = x1 + x2 .
Or F1 ⊕ (F ∩ G) = F ⇒ ∃(x01 , x001 ) ∈ (F1 × (F ∩ G)) tq x1 = x01 + x001 .
⇒ x = x01 + (x001 + x2 ). Donc F + G = F1 + G.
Finalement F + G = F1 ⊕ G.
ou
= dim F1 + dim F2 − dim F1 ∩ F2 .
La relation est vraie
On suppose que la relation est vraie pour l’ordre n, n ≥ 2.
Pour l’ordre n + 1 : on a
hl
n
X n
X n
X n
X
dim Fi = dim(Fi ) − dim(Fj ∩ Fi ).
i=1 i=1 j=2 i=1
dim
n+1
X
Fi = dim((
ak
n
X
Fi ) + Fn+1 ),
i=1 i=1
n
X n
X
= dim Fi + dim Fn+1 − dim(Fn+1 ∩ Fi ),
i=1 i=1
n+1 n j−1 n
M
X X X X
= dim Fi − dim(Fj ∩ Fi ) − dim(Fn+1 ∩ Fi ).
i=1 j=2 i=1 i=1
A11 · · · A1s
Be
A
21 ··· A2s
A = [Akl ] 1≤k≤r =
. ..
..
1≤l≤s .. . .
Ar1 · · · Ars
r
X s
X
Akl ∈ Mnk pl (K), nk , pl ∈ N tq nk = n ; pl = p.
k=1 l=1
Opérations sur les matrices par Blocs
ou
Rappel : Produit de matrices :
Si A = (aij ) 1≤i≤n ∈ Mn,p (K) et B = (bij ) 1≤i≤p ∈ Mp,m (K).
1≤j≤p 1≤j≤m
Xp
On note C = A × B ∈ Mn,m (K) avec Cij = aik bkj , i ∈ [|1, n|] et j ∈ [|1, m|].
k=1
hl
Soit A = (Akl ) 1≤k≤r ∈ Mn,p (K) et B = (Blq ) 1≤l≤s ∈ Mp,m (K), t ∈ N∗ ,
1≤l≤s 1≤q≤t
avec Akl ∈ Mnk pl (K), Blq ∈ Mpl ,mq (K).
On a : C = A × B = (Ckq ) 1≤k≤r ∈ Mn,m (K),
l=1
Akl Blq .
0 0
A + A B + B
M + M0 =
.
0 0
C +C D+D
Be
0 0 0 0
AA + BC AB + BD
M × M0 =
.
0 0 0 0
CA + DC CB + DD
f˜ : F → F
x → f˜F (x) = f (x).
On a : Kerf˜F = Kerf ∩ F .
ou
Proposition
Soit F un s.e.v. de E de dim p (p ∈ N∗ ) et f ∈ L(E).
Soit B = (e1 , · · · , ep ) une base de F .
hl
f (F ) ⊂ F ssi ∀i ∈ [|1, p|], f (ei ) ∈ F.
Preuve
ak
(⇒) Si f (F ) ⊂ F sig ∀x ∈ F, f (x) ∈ F , donc ∀i ∈ [|1, p|], f (ei ) ∈ F .
(⇐) Si f (ei ) ∈ F, ∀i ∈ [|1, p|]. Soit x ∈ F ⇒ x =
p
X
i=1
αi ei , avec αi ∈ K, ∀i ∈ [|1, p|].
p
X p
X
f (x) = f ( αi e i ) = αi f (ei ) ∈ F.
i=1 i=1
M
D’où le résultat.
Exemple
f : R[X] → R[X]
P → P0
n
donc f (P ) ∈ Rn [X]
d’où f (Rn [X]) ⊂ Rn [X].
Proposition
Soit f, g ∈ L(E) tel que f ◦ g = g ◦ f alors Imf et Kerf sont stables par g (et récipro-
quement).
Preuve
Définition
ou
Soit E un K e.v de dim finie et F un sev de E si BF est une base de F , on la complète
en une base B de E, cette base s’appelle base de E adaptée à F .
hl
Interprétation matricielle
Théorème
M
Soit f ∈ L(E).
A B
F stable par f ⇔ MB (f ) =
,
0n−p,p D
taires dans E tel que dim(G) = p ∈ N∗ et p < n. Soit B = (e1 , · · · , ep , ep+1 , · · · , en ) une
base de E adaptée à la décomposition E = F ⊕ G.
Théorème
Soit f ∈ L(E).
ou
♣ Si E = F1 ⊕ · · · ⊕ Fq , q ∈ N∗ , F1 , · · · , Fq des S.e.v de E avec dim Fi = ni ∀i ∈ [|1, q|]
q
X
et ni = n = dim E.
i=1
q
Si Bi est une base de Fi , ∀i ∈ [|1, q|] alors B = Ui=1 Bi
est une base de E adaptée à la décomposition.
hl
Théorème :
Soit f ∈ L(E) ∀i ∈ [|1, q|], f (Fi ) ⊂ Fi si seulement si
ak f (B1 ) f (B2 ) · · · f (Bq )
A1 0 ··· 0 B1
MB (f ) = 0
A2 0 0
B2 .
. .. .. ..
M
..
. . 0
.
0 0 0 Aq Bq
1 0 2 0
Be
M= 2
1 0 −1
.
−1 0 1 0
1 1 1 1
A B
Mq M est semblable à N =
0 D
où A, B, D ∈ M2 (R).
Théorème-définition :
Soit E un K.e.v de dim n et B une base de E, il existe une unique application notée :
ou
detB : E n →K
(U1 , · · · , Un ) → detB (U1 , · · · , Un ),
telle que :
hl
1. detB linéaire par rapport à chaque composante (n-linéaire) :
Soient i ∈ [|1, n|] et α ∈ K, on a : detB (U1 , · · · , Ui−1 , αUi + Ui0 , Ui+1 , · · · , Un )
= α detB (U1 , · · · , Ui−1 , Ui , Ui+1 , · · · , Un )
ak
+ detB (U1 , · · · , Ui−1 , Ui0 , Ui+1 , · · · , Un ).
Proposition :
(1) Si Uj = Ui alors detB (U1 , · · · , Ui , · · · , Uj , · · · , Un ) = 0. En effet
n
n
X
detB (U1 , · · · , Uj , · · · , Un ) = detB (U1 , · · · , αi Ui , · · · , Un )
i=1
i6=j
n
X
= αi detB (Uj , · · · , Ui , · · · , Un ) = 0.
ou
i=1
i6=j
n
X
(3) Pour tout j ∈ [|1, n|], on a : detB (U1 , · · · , Uj , · · · , Un ) = detB (U1 , · · · , Uj + αi Ui , · · · , Un ).
i=1
hl
i6=j
En effet :
n
X
detB (U1 , · · · , Uj + αi Ui , · · · , Un ) = detB (U1 , · · · , Uj , · · · , Un )+
i=1
i6=j
detB (U1 , · · · ,
n
X
i=1
i6=j
ak
αi Ui , · · · , Un )
.
= detB (U1 , · · · , Uj , · · · , Un )
=0
M
n
X
car la famille {U1 , · · · , αi Ui , · · · , Un } est liée.
i=1
i6=j
C1 · · · Cn
a11 ··· a1n
A=
.. .. ..
. . .
an1 · · · ann
Proposition :
ou
Proposition :
Soit A, B ∈ Mn (R) et λ ∈ R.
• det(λA) = λn det(A).
hl
• det(AB) = det A × det B.
• A est inversible si et seulement si det(A) 6= 0 et dans ce cas :
1
det(A−1 ) =
ak det(A)
.
• On peut ajouter à une ligne une combinaison linéaire des autres lignes.
Be
det(f ) c’est le déterminant d’une représentation matricielle de f dans une base quelconque
de E.
ou
• Soit g ∈ aut (E), alors :
det(g −1 ◦ f ◦ g) = det(f ).
hl
Développement par rapport à une ligne ou colonne :
Soit A = (aij )1≤i,j≤n ∈ Mn (K).
Théorème
Développement par rapport à une ligne :
Soit i ∈ [|1, n|], on a :
ak
det(A) =
n
X
(−1)i+j aij ∆ij .
j=1
.. ..
. .
an1 anj−1 anj+1 ann
ou
Exemples :
Soit
C1 C2 C3
1 −1 3
det(A) =
hl
1 2 4
1 −1 0
0 −1 3
ak
C1 ← C 1 + C2 = 3 2
0 −1 0
4 = −3 ×
−1 3
−1 0
= −9.
Théorème : Déterminant
d’une matrice
triangulaire
a11 0 ... 0
M
..
21 a22 · · · .
a
Soit la matrice An = .
, aij ∈ R, ∀i, j ∈ [|1, n|] 1 ≤ j ≤ i ≤ n.
.. ..
. 0
an1 an2 . . . ann
Alors
n
Y
det An = aii .
n
i=1
Preuve :
n
Y
Montrons par récurrence sur n ∈ N∗ que det(An ) = aii .
Be
i=1
• Pour n = 1, A1 = (a11 ), donc det A1 = a11 .
n
Y
• On suppose que det(An ) = aii .
i=1
ou
an+1 1 an+1 2 . . . an+1 n+1
a11 0 ... 0
..
hl
a21 a22 · · · . n+1
Y
= an+1 n+1 .. = an+1 n+1 × det An = aii .
..
. . 0 i=1
a a 0 a
a a a
n
a b 0 b
= = (d − c) × a b b .
a b 0 c
a b c
a b c−d d
Be
a a a
a a
det(A) = (d − c) × a b b = (d − c)(c − b) .
a b
0 0 c−b
2eme méthode :
a a a a
C4 ← C4 −C3
a b b b
ou
det(A) = × C3 ← C3 −C2
a b c c
C2 ← C2 −C1
a b c d
a 0 0 0
a b−a 0 0
hl
=
a b−a c−b 0
a b−a c−b d−c
a 0 0
ak = (d − c) × a b − a
a b−a c−b
0
a 0
= (d − c) × (c − b)
a b−a
M
= (d − c) × (c − b) × (b − a) × a.
(2) Soit :
1 1 ··· 1
1 1 − x ··· 1
det(D) = . .. .. ; D d’ordre n + 1.
.. ...
. .
n
1 1 ··· n − x
1 1 ··· 1 ··· 1
0 −x 0 ... ... 0
n−1
. . .. ..
= .. 0 1 − x ..
Y
. . = 1(−x) × (1 − x) · · · (n − x − 1) = (k − x).
k=0
.. .. .. .. . .
. . . . . 0
0 0 ··· 0 ··· n − x − 1
ou
Exemple :Soient
1 0 0 1 2 0
3
E = R , Bc = {
0 , 1
0}
et S = {
1 ,
3 , 5}
0 0 1 0 −1 1
hl
1 2 0
detBc (S) = 1 3 5.
0 −1 1 ak 1 2 0
L2 ← L2 − L1 = 0 1 5 .
0 −1 1
Exercice :
On considère l’application φ définie sur Rn [X] par : φ(P )(X) = (X − a)P 0 (X) − nP (X).
1) Montrer que φ est un endomorphisme de Rn [X] et donner sa matrice dans la base
Be
canonique de Rn [X].
2) En déduire que φ n’est pas un automorphisme.
Réponse :
1)• Soit P, Q ∈ Rn [X] et α ∈ R,
ou
• Soit P ∈ Rn [X] ⇒ deg P ≤ n donc deg(Q(P )) ≤ n car deg(x − a)P 0 ≤ n.
⇒ φ est un endomorphisme de Rn [X]
• Bc = (1, X, · · · , X n ).
φ(X k ) = (X − a)kX k−1 − nX k = (k − n)X k − akX k−1 , 1 ≤ k ≤ n.
hl
φ(1) = −n.
A = MBc (φ) =
ak
0
.
..
1 − n ···
...
0
X
..
0 0
.
. ...
..
· · · −1 −an
X n−1
0 0 ··· 0 Xn
M
2)det(φ) = det A = 0 ⇒ φ n’est pas bijective.
Applications :
1) Déterminant d’une matrice par Blocs :
Proposition :
n
A B
Be
ou
Pp
avec Ai ∈ Mni (K), ni ∈ N∗ et i=1 ni = n. Alors,
p
Y
det(A) = det(A1 ) det(A2 ) . . . det(Ap ) = det(Ai ).
i=1
2) Déterminant de Vandermonde :
hl
Soit λ1 , . . . , λn ∈ C. On considére le déterminant suivant :
1 ... 1
ak
Vn (λ1 , . . . , λn ) =
λ1
λ21
λ2
λ22
···
···
λn
λ2n d’ordre n
..
.
λ1n−1 λ2n−1 · · · λn−1
n
M
c’est le déterminant de Vandermonde d’ordre n associé aux scalaires λ1 , · · · , λn .
Théorème
1) Si λi = λj , i, j ∈ [|1, n|] et i 6= j ⇒ Vn (λ1 , · · · , λn ) = 0.
n
Y
2) Vn (λ1 , · · · , λn ) = (λj − λi ).
i,j=1
i<j
n
Preuve :
1) si λi = λj , i, j ∈ [|1, n|] avec i 6= j alors Ci = Cj ,
⇒ Vn (λ1 , · · · , λn ) = 0.
2) Soit le det de Vandermonde d’ordre n associé à λ1 , · · · , λn−1 , x ∈ C :
ou
λ1n−1 λ2n−1 · · · λn−1
n−1 x
n−1
n
(−1)n+i ain ∆in
X
Vn (λ1 , · · · , λn−1 , x) =
i=1
hl
= (−1)n+1 1∆1n + (−1)2+n x∆2n + . . . + (−1)n+n xn−1 ∆nn
= (−1)n+1 ∆1n + (−1)2+n x∆2n + · · · + ∆nn xn−1 .
n−1 n−1
n
Y Y
P (X) = ∆nn (X − λi ) = Vn−1 (λ1 , · · · , λn−1 ) (X − λi ).
i=1 i=1
On obtient :
Be
n−1
Y
Vn (λ1 , · · · , λn−1 , X) = (X − λi ) Vn−1 (λ1 , · · · , λn−1 ).
i=1
n
Y
Vn+1 (λ1 , · · · , λn+1 ) = (λn+1 − λi )Vn (λ1 , · · · , λn )
ou
i=1
Yn Y
= (λn+1 − λi ) (λj − λi )
i=1 1≤i<j≤n
Y
= (λj − λi ).
1≤i<j≤n+1
hl
Y Y Y Y Y j−1
n+1 Y
= (λ2 − λ1 ) (λ3 − λi ) · · · (λn − λi ) (λn+1 − λi ) = (λj − λi )
1≤i≤1 1≤i≤2 1≤i≤n−1 1≤i≤n j=2 i=1
d’où le résultat. ak Y
3) On a : Vn (λi , · · · , λn ) = (λj − λi ).
1≤i<j≤n
Vn (λ1 · · · λn ) 6= 0 si et seulement si les scalaires (λi , · · · , λn ) sont 2 à 2 distincts.
M
V Trace d’un endomorphisme et matrices semblables
Définition :
n
ϕ: E→K
Be
x 7−→ ϕ(x).
Soient P, Q ∈ R[X] et α ∈ K, on a :
ou
ϕ1 (αP + Q) = (αP + Q)(o),
= αP (o) + Q(o)
= αϕ1 (P ) + ϕ1 (Q).
hl
ϕ est linéaire de R[X] dans R ⇒ ϕ est une forme linéaire de R[X].
•
ϕ2 : C([a, b], R) → R ([a, b]) ⊂ R
ak f
•
ϕ3 : Mn (R) → K
M
A 7−→ tr(A)
Proposition :
Soit E un K espace vectoriel de dimension finie, alors dim E ∗ = dim E.
Preuve : Soit E, E 0 deux K.e.vs de dim resp n et p ∈ N∗ .
On sait que : dim(L(E, E 0 )) = dim E × dim E 0 .
n
ou
Exemple : Soient E = R3 et F = {(x, y, z) tq 2x + y − z = 0}.
x
V = y
∈ F si et si
z
hl
1 0
1
x 0
V =
y
= x
0
+ y 1
⇒ 0 , 1 famille
génératrice et libre de F.
2x + y
1 0
2
ak 1 2
1
Comme
0 , 1
est libre dans F , alors cette famille est une base de F . Par suite F
2 1
M
est un hyperplan de E.
Ou bien, on considère l’application :
ϕ : R3 →R
(x, y, z) 7−→ 2x + y − z.
n
Définition :
Soit la matrice A = (aij )1≤ij≤n ∈ Mn (K).
ou
l’application tr est une forme linéaire .
3) tr (AB) = tr (BA).
4) Soit P ∈ GLn(K); tr (P −1 AP ) = tr (A) (deux matrices semblables ont la même trace)
Preuve :
hl
2) Soient
A = (aij )1≤i,j≤n ∈ Mn (K).
B = (bij )1≤i,j≤n ∈ Mn (K).
ak
On note C = AB avec C = (Cij )1≤ij≤n ∈ Mn (K).
Pour tout i, j ∈ [|1, n|], on a Cij =
n
X
aik bkj .
k=1
n
X n X
X n
tr (AB) = Cii = aik bki
M
i=1 i=1 k=1
Xn X n
= bki aik
k=1 i=1
= tr (BA).
3. Matrices semblables :
Be
Définition :
Soient A, B ∈ Mn (K), A et B sont semblables dans K, s’il existe une matrice P ∈ GLn (K)
tq B = P −1 AP .
Proposition :
1/ Deux matrices semblables ont la même trace.
2/ Deux matrices semblables ont le même déterminant.
la réciproque n’est pas vraie en cas général. En effet :
1 0
ou
B=
:
tr (B) = 2, det(B) = 1.
1 1
1 0
soit P ∈ GL2 (R), P −1 AP =
6 B ⇒ A et B ne sont pas semblables dans Mn (K).
=
0 1
hl
4. Trace d’un endomorphisme :
Définition :
Soit E un K.e.v de dim n et f ∈ L(E). La trace de f est la trace d’une représentation
ak
matricielle de f dans une base quelconque de E. On la note tr(f ).
Si f ∈ L(E) et B = (e1 , · · · , en ) une base de E .
On note : A = MB (f ). avec
M
f (e1 ) . . . f (en )
· ... · e1
A = MB (f ) =
... .. .. ..
. .
.
· ... · en
n
f (e01 ) . . . f (e0n )
0 · ... · e01
A = MB 0 (f ) =
.. ... .. ..
. .
.
· ... · e0n
tr (A0 ) = tr (P −1 AP ) = tr (A) = tr (f ).
Proposition :
ou
1/l’application trace est une forme linéaire de E.
tr : L(E) →K
f → tr (f )
hl
tr (αf + g) = α tr (f ) + tr (g), ∀f, g ∈ L(E), ∀α ∈ K
2/ tr (f ◦ g) = tr (g ◦ f ), ∀f, g ∈ L(E).
3/Si g ∈ aut (E), tr (g −1 ◦ f ◦ g) = tr (f ).
5. Projecteur :
ak
Définition :
Soit E un K.e.v, un projecteur P de E est un endomorphisme de E vérifiant P ◦ P = P.
M
Proposition :
1/ Soit P ∈ L(E), P un projecteur de E seulement si ∀x ∈ Imp, p(x) = x.
2/ Soit P un projecteur de E, alors ImP ⊕ Ker P = E.
Démonstration :
n
1/ ” ⇒ ” : Soit P un projecteur de E
Soit x ∈ Im P , c.à.d : il existe z ∈ E tq x = P (z), donc p(x) = p2 (z) = p(z) = x.
Be
x2 = P (x) ∈ Im (P ).
P (x1 ) = P (x) − P 2 (x) = P (x) − P (x) = 0E
⇒ x1 ∈ Ker P.
ou
Donc E = Ker P + Im P (1)
• Soit x ∈ Im P ∩ Ker P :
∃ z ∈ E tq x = P (z) et P (x) = 0E .
⇒ P (P (z)) = 0E
hl
⇒ P (z) = 0E = x.
⇒ Ker P ∩ Im P = {0E }(2).
D’après (1) et (2) : E = Ker P ⊕ Im P .
Remarque :
ak
Soient E un K espace vectoriel et F, G deux sous e.v supplémentaires dans E. Si P est
la projection de E sur F parallélement à G
⇒ Im P = F et Ker P = G.
Théorème
M
Soit E un K.e.v de dim n. Si P un projecteur de E alors : rg (P ) = tr (P ).
Preuve :
on note r = rg (P ) = dim(Im P ), (r ≤ n). Soit B = (e1 , · · · , er , er+1 , · · · , en ) une base
n
ou
.
······ ······ ······
0 .
er+1
.. ..
.
······ ······ ······ . .
.
0 ······ ······ ······ ······ 0 en
hl
⇒ tr(P ) = r = rg (P ).
Exercice :
Soit S une symétrie de E (S ∈ L(E) tq S 2 = IdE ).
1
1) Mq p = (S + IdE ) est un projecteur de E.
2
ak
2) Mq E = Ker(S − Id E ) ⊕ Ker(S + IdE ).
3) si rg (S) = q ≤ n alors tr (S) = 2q − n.
M
n
Be
hl
ak
Chapitre II :
M
Réduction des endomorphismes
n
Be
ou
Réduction des endomorphismes
hl
I Eléments propres :
1.
ak
Vecteurs propres, valeurs propres d’un endomorphisme :
Définition :
M
Soient f ∈ L(E) et λ ∈ K.
λ est une valeur propre de f s’il existe x ∈ E, x 6= 0E tq f (x) = λx.
l’ensemble des valeurs propres de f dans K s’appelle le spectre de f dans K et
on le note SPK (f ).
le vecteur non nul x vérifiant f (x) = λx, (λ ∈ K) s’ppelle vecteur propre de f associé à
n
λ.
Soit λ ∈ K, on appelle sous espace propre de f associé à λ le s.e.v noté :
Be
Eλ (f ) = ker(f − λIdE )
= {x ∈ E tq f (x) − λx = 0E }
= {x ∈ E tq f (x) = λx}.
Proposition :
Soient f ∈ L(E) et λ ∈ K.
1. λ ∈ SPK (f ) ⇔ dim Eλ ≥ 1.
52
2. λ ∈ SPK (f ) ⇔ f − λIdE n’est pas injective.
Preuve :
1. Soit λ ∈ K.
λ ∈ SPK (f ) sig il existe x 6= 0E tq f (x) = λx,
ou
sig il existe x 6= 0E tq x ∈ Eλ (f ) s.e.v de E,
sig dim Eλ ≥ 1.
2. Soit λ ∈ K.
λ ∈ SPK (f ) sig il existe x 6= 0E tq f (x) = λx,
sig il existe x 6= 0E tq (f − λIIdE )(x) = 0E ,
hl
sig il existe x ∈ ker(f − λIdE ), x 6= 0E ,
sig f − λIdE n’est pas injective.
3. Soit x ∈ E \ {0E }.
x vecteur propre de f
ak
sig ∃λ ∈ K tq f (x) = λx
sig x et f (x) liée .
Remarque :
Soit E est un espace euclidien de dim 2 on note Rθ la rotation vectorielle de E d’angle θ
M
telle que θ 6= kπ, k ∈ Z.
⇒ Rθ n’a aucun vecteur propre, en effet pour tout x ∈ E \ {0E }, Rθ (x) et x ne peuvent
pas être colinèaires.
n
Exercice :
• Soit l’application :
ϕ : C ∞ ( R, R) → C ∞ (R, R)
Be
f → f0
ϕ(f ) = λf
⇒ f 0 = λf ⇒ f (t) = ceλt , ∀t ∈ R, avec c ∈ R.
ou
ψ : R[X] → R[X]
P → P0
hl
On a P 6= 0R[X] , on note n = deg(P ), n ∈ N.
deg(λ × P ) → −∞ si λ = 0
deg(P ) → n si λ 6= 0.
ak
♣ si λ = 0, P 0 = λ × P est vérifiée si P = cst ∈ R
On prend P ≡ 1, P 0 = 0 = 0 × P d’où 0 ∈ SPR (ψ).
→ E0 (ψ) = ker ψ = R0 [X].
M
♣ si λ 6= 0, deg (P 0 ) → −∞ si n = 0
→ n − 1 si n ≥ 1.
on a deg (λ × P ) = deg (P ) pour tout P ∈ R[X] \ {0R[X] }
⇒ λ n’est pas une valeur propre de ψ.
Conclusion : SPR (ψ) = {0} et E0 (ψ) = ker ψ = R0 [X].
n
Application :
Be
ou
• si λ = 0, soit x ∈ G et x 6= 0E , alors P (x) = 0E = 0 × x d’où 0 ∈ SPK (P ) et E0 (P ) = G.
SPK (P ) = {0, 1} et E1 (P ) = F et E0 (P ) = G.
2) Soit S la symètrie de E par rapport à F = ker(S − IdE ) (F 6= {0E } et F 6= E)
parallélement à G = ker(S + IdE ).
hl
on a :F ⊕ G = E = ker(S − Id E ) ⊕ ker(S + Id E ).
Soit λ ∈ R, λ valeur propre de S, s’il existe x 6= 0E tq S(x) = λx, donc S 2 (x) = λ×S(x) =
λ2 x.
ak
On obtient x = λ2 x ⇒ λ2 = 1 ⇒ λ = 1 ou λ = −1 Par suite SPR (S) ∈ {−1, 1}.
• Si λ = 1. Soit x ∈ F \ {0E } ? donc S(x) = x = 1 × x ce qui prouve 1 ∈ SPR (S) et
E1 (S) = F .
• Si λ = −1. soit x ∈ G \ {0E }, on a S(x) = −x = −1 × x.
M
⇒ −1 ∈ SPR (S) et E−1 (S) = G.
Finalement, SPK (S) = {−1, 1}, E1 (S) = F et E−1 (S) = G.
3) Soit f une homothétie de E (E 6= {0E }) de rapport λ ∈ K, c.à.d, ∀x ∈ E, f (x) = λx.Par
suite SPK (f ) = {λ} et Eλ (f ) = E.
n
Théorème
Soient E un K.e.v de dim finie n et f ∈ L(E). Soit λ ∈ K, λ est une valeur propre
de f si et seulement si det(f − λIdE ) = 0.
Be
Preuve :
λ valeur propre de f si et seulement s’il existe x 6= 0E tel que
Proposition :
ou
Soient E un K espace vectoriel et f ∈ L(E) .
Soit λ ∈ K. Si λ ∈ SPK (f ), alors le s.e.v propre Eλ (f ) de f associé à λ est stable par f
.De plus l’endomorphisme induit.
f˜λ : Eλ (f ) → Eλ (f )
hl
x 7→ f˜λ (x) = f (x)
Proposition :
n
Preuve :
(f − λ IdE ) ◦ g = f ◦ g − λg,
Si f ◦ g = g ◦ f ⇒ = g ◦ f − λg
= g ◦ (f − λ IdE ).
Donc, ker(f − λ IdE ) est stable par g.
Proposition :
p
X
Eλi (f ) = ⊕ Eλi (f ).
i=1 1≤i≤p
ou
Preuve :
p
X
Montrons par récurrence sur p ∈ N (p ≥ 2) que Eλi (f ) est directe.
i=1
hl
Montrons que Eλ1 (f ) + Eλ2 (f ) est directe.
Soit x ∈ Eλ1 (f ) ∩ Eλ2 (f ) ⇒ f (x) = λ1 x et f (x) = λ2 x.
On obtient : λ1 x = λ2 x sig (λ1 − λ2 ) × x = 0E or λ1 6= λ2 donc x = 0E .
ak
• Soit {λ1 , · · · , λp } ∈ SPK (f ) deux à deux distinctes.
supposons que la somme de s.e.v Eλ1 , (f ), · · · , Eλp (f ) est directe.
i=1 i=1
p+1
X
On obtient la relation suivante (2) λi xi = 0E .
i=1
Be
Corollaire :
Toute famille formée par des vecteurs propres de f associée à des valeurs propres dis-
ou
tinctes est libre dans E.
Preuve :
Soit λ1 , · · · , λp ∈ SPK (f ), (f ∈ L(E)) distinctes et x1 , · · · , xp des vecteurs propres de f
associés respectivement à λ1 , · · · , λp .
p
hl
X
Soit α1 , · · · , αp ∈ K tel que αi xi = 0E .
i=1
p
X
On a : αi xi ∈ Eλi (f ), ∀i ∈ [[1, p]]. Or Eλi (f ) est directe, alors ∀i ∈ [[1, p]], αi xi = 0E .
i=1
Comme xi 6= 0E , ∀i ∈ [[1, p]], donc αi = 0, ∀i ∈ [[1, p]].
ak
Par suite {x1 , · · · , xp } est libre dans E.
Proposition :
Soit f ∈ L(E).
M
1. si λ ∈ SPK (f ) alors, pour tout P ∈ K[X], P (λ) ∈ SPK (P (f )).
Preuve :
Be
n
ai X i , n ∈ N, ai ∈ K, ∀i ∈ [[0, n]].
X
1. Soint f ∈ L(E) et P ∈ K[X] tel que P (X) =
i=0
La valeur de P en f :
n
ai f i ,
X
P (f ) =
i=0
= an f n + an−1 f n−1 + · · · + a1 f + a◦ f ◦ ,
= an f n + an−1 f n−1 + · · · + a1 f + a◦ IdE ∈ L(E).
Montrons que si λ une valeur propre de f alors P (λ) est une valeur propre de P (f ).
ou
• On a :
f i+1 (x) = f (f i (x)),
= f (λi (x)),
= λi f (x) = λi+1 x.
n
hl
ai × f i (x)
X
⇒ P (f )(x) =
i=0
n
ai λ i x
X
=
i=0
n
ai λi )x, x 6= 0E ⇒ P (f )(x) = P (λ)x.
X
On obtient : P (f )(x) = (
Par suite : P (λ) ∈ SPK (P (f )).
ak i=0
SPK (g −1 ◦ f ◦ g) = SPK (f ).
n
Remarque :
Soient f ∈ L(E) et P ∈ K[X] . Si P (f ) = 0L(E) , on dit que P est un polynômes annulateur
de f .
Donc, si λ ∈ SPK (f ) alors P (λ) ∈ SPK (P (f )).
or SPK (0L(E) ) = {0} ce qui prouve que P (λ) = 0
Si P est un polynôme annulateur de f , alors les valeurs propres de f sont des racines de
Exemples :
ou
1. Soit f un projecteur de E ⇒ f 2 = f . Le polynôme P (X) = X 2 − X est un poly-
nôme annulateur de f : P (f ) = f 2 − f = 0L(E) .
Donc, SpK (f ) ⊂ {0, 1}.
hl
2. Soient E un C espace vectoriel et f ∈ L(E) tq f n = IdE .
le polynôme P (X) = X n − 1 est annulateur de f car P (f ) = f n − IdE = 0L(E) .
2ikπ
les racines de P représentent les racines ni ème de l’unité Zk = e
ak n , k ∈ [[0, n−1]].
⇒ SpC (f ) ⊂ {Zk , k ∈ [[0, n − 1]]}.
Théorème :
Soit A ∈ Mn (K) et λ ∈ K.
= (1 − λ)(6 − λ) − 6
ou
= λ2 − 7λ.
1 3 −1
hl
2/B = 0
4 0 ;
Soit λ ∈ K, λ ∈ SPK (B) ⇔ det(B − λI3 ) = 0
0 5 1
1−λ 3 −1
ak ⇔ 0
0
4−λ
5
0
1−λ
=0
4−λ 1
⇒ Dév par rapport à C1 : det(B − λI3 ) = (1 − λ) × =0
5 1−λ
2
⇔ (1 − λ) (4 − λ) = 0.
M
⇔ (1 − λ) = 0 ou (4 − λ) = 0
Proposition
Deux matrices semblables dans Mn (K) ont le même spectre.
Be
Preuve :
Soient A et B ∈ Mn (K).
A et B semblables dans Mn (K) si seulement si il existe P ∈ GLn (K) tq B = P −1 AP .
Soit λ ∈ K, B − λIn = P −1 AP − λIn ,
= P −1 (A − λIn )P.
ou
II Polynôme caractéristique :
1. Définition :
hl
Le polynôme caractéristique de f noté χf est égal à χf (X) = det(XIdE − f ).
Théorème
ak
Soient A ∈ Mn (K) ou f ∈ L(E), dim E = n et λ ∈ K.
λ ∈ SPK (A) si seulement si χA (λ) = 0
M
λ ∈ SPK (f ) si seulement si χf (λ) = 0
Cas Particuliers :
2. Si A est triangulaire :
a11 · · · a1n
ou
.. ..
A=
. .
O ann
alors,
hl
X − a11 · · · a1n
n
... .. Y
χ(X) = det(XIn − A) = . = (X − aii ).
i=1
ak O X − ann
Donc :
SpK (A) = {a11 , a22 , · · · , ann }.
Proposition :
n
n
X n
Y
λi = tr(A) et λi = det(A)
i=1 i=1
Remarque :
Soit le polynôme P (X) = an X n + · · · + a0 avec an 6= 0, n ∈ N∗ .
ou
i=1 i=1
mi est l’ordre de multiplicité de αi dans P , c.a.d :
mi (mi −1)
(X − αi ) divise P P (αi ) = ··· = P (αi ) = 0
hl
et ou bien et
(X − αi )mi +1 ne divise pas P P mi (αi ) 6= 0
Corollaire :
ak
Soit A ∈ Mn (K). 0 ∈ SPK (A) ⇔ A non inversible.
Preuve :
Le polynôme caractéristique χA est scindé dans C. On note λ, · · · , λn les valeurs propres
M
complexes de A.
n
Y
Donc, det(A) = λi . Par suite, det(A) = 0 ⇔ 0 ∈ SPR (A).
i=1
Proposition :
Soit f ∈ L(E), dim E = n.
n
Preuve :
On a : F stable par f donc on peut définir l’endomorphisme :
f˜F : F → F
x → f˜F (x) = f (x).
Soit B = (e1 , · · · , ep , ep+1 , · · · , en ) une base de E adaptée à F , c.à.d BF = (e1 , · · · , ep )
est une base de F . On note :
ou
où A = MBF (f˜F ) ∈ Mp (K), B ∈ Mp,n−p (K) et D ∈ Mn−p (K).
hl
XIp − A −B
=
0 XIn−p − D,
= det(XIp − A) × det(XIn−p − D),
ak= χA (X) × χD (X),
= χf˜F (X) × Q(X), Q ∈ K[X].
Ce qui prouve que χf˜F divise χf .
Corollaire :
M
Soit f ∈ L(E), E un K.e.v de dim n.
Soit λ ∈ K, si λ ∈ SPK (f ) d’ordre de multiplicité m dans le polynômes caractéristiques
χf alors 1 ≤ dim Eλ ≤ m.
Démonstration :
on sait que Eλ (f ) est stable par f et que f˜λ l’endomorphisme de Eλ (f ) induit par f est
n
Cas Particulier :
Si λ est une valeur propres simple (de multiplicité 1),
ou
alors, 1 ≤ dim Eλ (f ) ≤ 1 ⇒ dim Eλ (f ) = 1.
hl
en dimension finie et des matrices carrées :
Définition :
ak
1. Soit f ∈ L(E), E un K espace vectoriel de dim n.
f est diagonalisable dans E s’il existe une base de E dans laquelle la matrice de f
est diagonale.
M
2. Soit A ∈ Mn (K), A est diagonalisable dans Mn (K) si A est semblable à une matrice
diagonale dans Mn (K), c.à.d :
il existe P ∈ GLn (K) et D ∈ Mn (K) diagonale tq :
D = P −1 AP .
n
Théorème
Soit f ∈ L(E) , E K.e.v de dim n. f est diagonalisable dans E si et seulement s’il
Be
Preuve :
Si B = (U1 , · · · , Un ) une base de E formée par des vecteurs propre de f , alors
ou
Théorème
Soient E un K espace vectoriel de dim n et f ∈ L(E).
hl
m
Preuve :
n
2. (2) ⇒ (3) :
ou
[[1, p]].
D’autre part : χf˜λ divise χf , ∀i ∈ [[1, p]], on obtient :
i
(X − λ1 )m1 divise χf ,
hl
(X − λ2 )m2 divise χf ,
..
ak .
(X − λp )mp divise χf .
i=1
De plus, on sait que le coefficient dominant de (χf ) = 1 ⇒ a = 1.
p
(X − λi )mi , avec mi = dim Eλi (f ) ∀i ∈ [[1, p]].
Y
On déduit que : χf (X) =
Be
i=1
p
X p
X
3. ((3) ⇒ (1)) : On a dim Eλi (f ) = mi = deg χf = n.
i=1 i=1
⇒ E = ⊕ Eλi (f ).
1≤i≤p
Soit Bi une base de Eλi (f ), ∀i ∈ [[1, p]].
B = ∪pi=1 Bi : c’est une base de E adaptée à la décomposition E = ⊕ Eλi (f ).
1≤i≤p
formée par des vecteurs propres de f . Donc f est diagonalisable dans E.
ou
n
Y
Dans ce cas : SpK (f ) = {λ1 , · · · , λn } et χf (X) = (X − λi ) .
i=1
n
X
Donc dim Eλi (f ) = 1 et dim Eλi = n.
i=1
Application :
hl
diagonaliser,
si c’est possible,
les matrices suivantes:
1 1 1 1 1 1 1 2
0 −1 1
1
1 −1 −1
0
1 0 0
A= ,B = et C = .
1
−1
1 −1 −1
1
1
−1
ak
1
0
0
0
2
0
0
0
−2
1
2
−1 2
0
M
IV trigonalisation :
Définition :
2. Soit f ∈ L(E), dim E = n, f est triangularisable dans E s’il existe une base B de
E dans laquelle la matrice de f est triangulaire.
ou
Application :
2 0 1
Soit la matrice A =
1 1 0
−1 1 3
hl
2 1 0
Montrons que A est semblable à la matrice T = 0
2 .
1
0 0 2
Correction :
ak
on note Bc = (e1 , e2 , e3 ) la base canonique de M3,1 (K); (K = R ou C).
On a : χA = χT = (X − 2)3 car A et T sont semblables. Donc SpR (A) = {2}.
M
0 0 1 0 1
A − 2I3 =
1 −1 0
⇒ rg(A − 2I3 ) = rg
1 0
=2
−1 1 1 −1 1
Par suite, dim E2 (A) = dim ker(A − 2I3 ) = 3 − rg (A − 2I3 ) = 1 différent de l’ordre
de multiplicité de 2 dans χA .
n
AV1 = 2V1 ,
AV2 = V1 + 2V2 ,
AV3 = V2 + 2V3 .
ou
Donc V1 = 1
∈ E2 (A)
0
• Déterminons
V2 tel que : (A − 2I3 )V2 = V1 .
x
hl
On pose V2 = y
∈ M3,1 (R)
z
z=1
0 0 1 x 0
On obtient :
1
−1
−1
1 1
0
y
z
ak =
1
0
sig
x−y =1
−x + y + z = 0
z =1
sig
M
x
=1+y
1
On prend V2 = 0
1
On cherche V3 tel : (A − 2I3 )V3 = V2 .
que
n
x
On pose : V3 = y
∈ M3,1 (R)
Be
z
z=1
1
(A − 2I3 )V3 = 0
sig x − y = 0
1
−x + y + z = 1
V1 V2 V3
1 1 0 1 1
ou
detBc (B) = =1 = −1 6= 0,
1 0 0 1 0
0 1 1
donc (V1 , V2 , V3 ) est une base de M3,1 (R).
on a ;
hl
AV1 AV2 AV3
2 1 0 V1
On a : T =
ak
0
0
2
0 2
1
V2
V3
♣ Calculer An , ∀n ∈ N.
on a A = P T P −1 , donc An = (P T P −1 )n = P T n P −1 , ∀n ∈ N
Be
on a :
2 1 0 2 0 0 0 1 0
T = 0
2 1
= 0
2 + 0
0 0 1
0 0 2 0 0 2 0 0 0
⇒ T = D + N.
ou
0 0 0
↓
0 0 0
3
N = 0
0 0
⇒ N est nilpotente d’ordre 3.
hl
0 0 0
On remarque que D × N = N × D.
Soit n ∈ N : T n = (D + N )n , on applique la formule du binôme.
n
Cnk Dn−k N k
X
⇒ Tn =
=
k=0
X2
k=0
Cnk Dn−k N k
ak
n(n−1) n−2 2
= Dn + nDn−1 N + 2
D N .
n n−1 n−2
2 0 0 2 0 0 0 1 0 2 0 0
M
n(n−1)
= 0
2 n
0 + n
0
n−1
2 0 0
0 1 + 2
0
n−2
2 0 .
0 0 2n 0 0 2n−1 0 0 0 0 0 2n−2
n n(n−1) n−1
2 n2n−1 2
2
= 0
2n n2n−1 ;n
≥ 2.
0 0 2n
n
Calculer P −1 .
V1 V2 V 3
Be
1 1 0 e1
on a P =
1 0 0 e2
0 1 1 e3
e1 e2 e3
ou
0 1 0 V1
⇒ P −1 =
1 −1 0
V2
−1 1 1 V3
Enfin :
An = P T n P −1 , n ≥ 2.
hl
ak
M
n
Be
hl
ak
Chapitre III :
M
Espace Euclidien
n
Be
ou
Espace Euclidien
hl
E désigne un R espace vectoriel.
I Rappels :
ak
1. Produit scalaire :
M
Définition : On appelle produit scalaire réel ou euclidien, toute forme bilinéaire ϕ
symétrique définie positive.
ϕ: E×E → R
(x, y) 7→ ϕ (x, y)
n
• ϕ est bilinéaire :
∗ ϕ est linéaire à gauche : Pour tout (x, y, z) ∈ E 3 et α ∈ R, on a :
ϕ(αx + z, y) = αϕ(x, y) + ϕ(z, y).
∗ ϕ est linéaire à droite : Pour tout (x, y, z) ∈ E 3 et α ∈ R, on a :
ϕ(x, αy + z) = αϕ(x, y) + ϕ(x, z).
• ϕ est positive : Pour tout x ∈ E, ϕ(x, x) ≥ 0.
76
• ϕ est définie : Pour tout x ∈ E, ϕ(x, x) = 0 ⇒ x = 0E .
Un R espace vectoriel E muni d’un produit scalaire réel s’appelle espace préhilbertien
réel, si de plus sa dimension est finie alors (E, ϕ) s’appelle espace Euclidien.
Remarque
ou
Pour montrer que ϕ est bilinéaire symétrique il suffit de vérifier qu’elle est symétrique
puis linéaire à gauche ou à droite.
Exemples :
1) E = Rn et Bc = (e1 , ..., en ) sa base canonique.
hl
n
X n
X
Soient x, y ∈ E tels que x = xi ei et y = yi ei avec xi , yi ∈ R, ∀i ∈ [[1, n]].
i=1 i=1
n
X
On note hx, yi = xi yi . Montrons que h., .i est un produit scalaire de E.
i=1
ak
h, i: E×E → R
(x, y) 7→ hx, yi
M
• h , i est symétrique :
n
X n
X
Pour tout (x, y) ∈ E 2 , hx, yi = xi y i = yi xi = hy, xi.
i=1 i=1
n
X n
X n
X
Soit x, y, z ∈ E tels que x = xi e i , y = yi ei et z = zi ei ,
i=1 i=1 i=1
(zi ∈ R, ∀i ∈ [[1, n]]).
Be
• h , i est positive :
n
x2i ≥ 0.
X
Soit x ∈ E, on a hx, xi =
i=1
n
x2i = 0.
X
Soit x ∈ E, si hx, xi = 0 alors
i=1
Donc pour tout i ∈ [[1, n]], xi = 0, d’où x = 0E .
Conclusion : h , i est un produit scalaire réel de E, par suite (E, h , i) est un espace
ou
préhilbertien réel de dimension finie donc E est un espace euclidien.
2) E = C([a, b], R) avec [a, b] est un intervalle de R. E l’espace des applications conti-
nues de [a, b] dans R.
hl
Rb
Soit f, g ∈ E, on note hf, gi = a f (t)g(t)dt.
h, i: E×E → R
ak (f, g) 7→
Rb
a f (t)g(t)dt.
• h , i est symétrique :
Rb Rb
M
Soit f, g ∈ E, on a : hf, gi = a f (t)g(t)dt = a g(t)f (t)dt = hg, f i.
• h , i est positive :
Be
Rb 2
Soit f ∈ E, hf, f i = af (t)dt ≥ 0 car f 2 est une fonction positive continue sur [a, b].
• h , i est définie :
Rb 2
Soit f ∈ E telle que hf, f i = f (t)dt
a = 0. Comme f 2 est une fonction positive continue
sur [a, b],
alors f (t) = 0, ∀t ∈ [a, b]. D’où f = 0E .
R +∞
3) E = R[X] ; on note : hP, Qi = 0 P (t)Q(t) exp(−t)dt, ∀P, Q ∈ R[X].
On sait que lim t2 P (t)Q(t) exp(−t) = 0, donc P (t)Q(t) exp(−t) = ◦( t12 ), v(+∞).
t→+∞
ou
R +∞
Par suite 0 P (t)Q(t) exp(−t)dt est convergente.
On considère l’application :
h, i: E×E → R
hl
(P, Q) 7→ hP, Qi
• ϕ est symétrique.
t
Be
a2ij ≥ 0.
X
Donc ϕ(A, A) =
1≤i,j≤n
ou
• ϕ est définie.
a2ij = 0, donc aij = 0, ∀i, j ∈ [[1, n]]. D’où
X
Soit A ∈ Mn (K), si ϕ(A, A) = 0 alors
1≤i,j≤n
A = 0Mn (K ).
Conclusion : ϕ est un produit scalaire réel de E, par suite (E, ϕ) est un espace pré-
hl
hilbertien réel de dimension n2 donc E est un espace euclidien.
Exercice :
x2n < ∞}.
X
On note l2 (R) = {(xn )n ∈ RN , tq
ak n≥0
1) Montrer que l2 (R) est un R espace vectoriel.
X
2) Soient (xn )n et (yn )n dans l2 (R), on note h(xn )n , (yn )n i = xn y n .
n≥0
Montrer que (l2 (R), h., .i) est un espace préhilbertien.
M
2. Norme et distance dans un espace préhilbertien réel :
q
Soit (E, h, i) un espace préhilbertien réel. Soit x ∈ E, on note kxk = hx, xi.
n
Théorème
Théorème de Cauchy Shwartz :
Pour tout x, y ∈ E, on a :
Be
Preuve :
Soient x, y ∈ E et t ∈ R. On pose P (t) = hx + ty, x + tyi.
Donc, P (t) = kxk2 + 2thx, yi + t2 kyk2 .
ou
Dans le cas d’égalité, on a ∆0 = 0, donc P admet une racine double t0 ∈ R.
On obtient P (t) = hx + t0 y, x + t0 yi = 0. Donc x + t0 y = 0E , d’où x = −t0 y.
hl
Pour tout x, y ∈ E, on a :
kx + yk ≤ kxk + kyk.
Preuve :
ak
kx + yk2 = hx + y, x + yi = kxk2 + 2hx, yi + kyk2 ,
≤ kxk2 + 2kxkkyk + kyk2 .
Définition :
M
Soit (E, h., .i) un espace préhilbertien.
1) L’application :
k.k : E → R+
1
x 7→ hx, xi 2
n
• kλxk = |λ|kxk.
• kx + yk ≤ kxk + kyk.
1) L’application :
d: E × E → R+
(x, y) 7→ d(x, y) = kx − yk
ou
Application :
Rb
E = (C[a, b], R), [a, b] ⊂ R et hf, gi = a f (t)g(t)dt.
On sait que (E, h., .i) est un espace préhilbertien.
hl
Pour tout f, g ∈ E ∈, d’après le théorème de Cauchy-shwartz, on obtient :
Rb Rb 2 1 R 1
| a f (t)g(t)dt| ≤ ( af (t)dt) 2 ( b g 2 (t)dt) 2 ,
a
≤ kf kkgk.
Si on prend g(t) = 1, ∀t ∈ [a, b], alors on trouve :
|
Rb
a f (t)dt| ≤ (b − a) 2 (
≤ (b − a) 2 kf k2 .
1
1
Rb 2
a
ak 1
f (t)dt) 2 ,
√
1. Montrer que pour tout A ∈ Mn (K), |tr(A)| ≤ nkAk.
Correction :
Be
Formules de polarisation :
Soient (E, h., .i) un espace préhilbertien réel et x, y ∈ E, on a :
ou
1. hx, yi = 21 (kx + yk2 − kxk2 − kyk2 ).
hl
Formule de paralléllogramme :
F ⊥ = {x ∈ E tq ∀y ∈ F, hx, yi = 0}.
Propriétés :
1. On a {0E }⊥ = E et E ⊥ = {0E } .
ou
Preuve :
hl
On a {0E } ⊂ E ⊥ . Soit x ∈ E ⊥ , alors pour tout y ∈ E, hy, xi = 0. Par suite
hx, xi = 0 ⇒ x = 0E . Donc E ⊥ = {0E } .
4. On considère l’application
ϕx : E → R
n
y 7→ hx, yi
Be
2. (S) est orthonormée si pour tout (i, j) ∈ [[1, n]]2 , hxi , xj i = δij .
Théorème
Théorème de Pythagore :
ou
Soit S = (x1 , ..., xn ) une famille orthogonale de (E, h., .i), alors :
n n
2
kxi k2 .
X X
k xi k =
i=1 i=1
hl
Preuve
n n n
2
X X X
k xi k =h xi , xj i,
i=1 i=1 j=1
n X n
=
=
X
i=1 j=1
Xn
hxi , xi i,
ak
hxi , xj i, (S) orthogonale
i=1
n
kxi k2 .
X
=
i=1
M
Proposition
Toute famille orthogonale de vecteurs non nuls de (E, h., .i) est libre.
Preuve
Soit S = (x1 , ..., xp ) une famille un famille orthogonale de vecteurs non nuls de E.
n
p
X
Soient α1 , ..., αp ∈ K telles que αi xi = 0E .
i=1
La famille (α1 x1 , ..., αp xp ) est orthogonale de E. Donc d’après le théorème de Pythagore
Be
p p
α i xi k 2 = kαi xi k2 = 0
X X
on a : k
i=1 i=1
D’où, pour tout i ∈ [[1, p]], kαi xi k = 0 ⇒ |αi |kxi k = 0.
Comme kxi k =
6 0, alors αi = 0, ∀i ∈ [[1, p]].
ou
1. vect{x1 , ..., xk } = vect{e1 , ..., ek }, ∀k ∈ [[1, p]].
Procédé de Schmidt :
hl
x1
1. On pose : e1 = kx1 k
⇒ ke1 k = 1.
ak
2. On pose : e02 = x2 − he1 , x2 ie1 . D’après la condition (1) on a e02 6= 0E . Donc,
x2 −he1 ,x2 ie1
on prend e2 = kx2 −he1 ,x2 ie1 k
.
Ainsi e2 est unitaire et he2 , e1 i = 0.
M
3. De proche en proche, on construit k vecteurs de la famille orthonormée puis
on considère le vecteur
k
X
e0k+1 = xk+1 − hei , xk+1 iei . On remarque que, d’après (1), e0k+1 est non nul.
i=1
On pose :
k
X
xk+1 − hei , xk+1 iei
n
i=1
ek+1 = k
.
X
kxk+1 − hei , xk+1 iei k
i=1
Be
Donc ek+1 est unitaire et orthogonale à tous les vecteurs déja construit .
Exercice :
R1
Déterminer une base orthonormée de l’espace (R2 [X], h., .i) où hP, Qi = −1 P (t)Q(t)dt, ∀P, Q ∈
R2 [X].
Correction :
On note Bo = (P0 , P1 , P2 ) l’othonormalisée de la base canonique Bc = (1, X, X 2 ) de R2 [X]
Remarque :
ou
L’orthogonalié d’une famille de vecteurs d’un espace préhilbertien dépend du produit
scalaire.
Supplémentaire orthogonal d’un sous espace vectoriel :
Soit (E, h., .i) un espace préhilbertien réel.
hl
Définition
Soient F et G deux sous espaces vectoriels de E, on dit F et G sont supplémentaires
orthogonaux dans E si
ak
F
⊥ G,
= F ⊕ G.
E
⊥
M
On écrit F ⊕ G = E.
Théorème
Soit F un sous e.v de E. F admet un supplémentaire orthogonal dans E si et si
n
F + F ⊥ = E.
Be
ou
| {z } | {z }
0 0
Donc, kxF k2 = 0. D’où xF = 0E .Par suite, x ∈ G et F ⊥ ⊂ G.
⊥
On a F ⊥ ⊕ F = E cette égalité prouve que F est le supplémentaire orthogonal de F ⊥ .
Donc, on obtient F ⊥⊥ = F .
hl
Exercice :
On considère l’espace préhilbertien E = C([a, b], R), [a, b] ⊂ R muni du produit scalaire
Rb
hf, gi = f (t)g(t)dt.
a
3. Déterminer F ⊥ , conclure.
Correction :
1. On a : F ⊂ E et 0E ∈ F . Soient α ∈ K et f, g ∈ F , on a αf + g ∈ E et
n
(αf + g)(0) = 0.
Par suite αf + g ∈ F . D’où F est un sous e.v de E.
Be
Exercice :
On considère l’espace E = Mn (K) muni de son produit scalaire canonique
ou
hA, Bi = tr(t AB).
⊥
Montrer que Sn (K) ⊕ An (K) = E.
hl
Correction :
On sait que Sn (K) ⊕ An (K) = E. Reste à prouver que : Sn (K) ⊥ An (K).
Soient A ∈ Sn (K) et B ∈ An (K), ak
hA, Bi = tr(t AB) = tr(AB).
D’autre part hA, Bi = tr(t AB) = tr(t (t AB)) = tr(t BA) = −tr(AB).
Ce qui prouve que hA, Bi = 0. Donc Sn (K) ⊥ An (K).
⊥
On déduit que Sn (K) ⊕ An (K) = E.
M
Proposition :
Tout sous espace vectoriel de dimension finie d’un espace préhilbertien réel admet un
supplémentaire orthogonal.
Preuve :
n
Soient (E, h., .i) un espace préhilbertien réel et F un sous e.v de E de dim p. Soit
BF = {e1 , ..., ep } une base orthonormée de F (il suffit de choisir une base de E puis
Be
ou
Théorème :
Soit (E, h., .i) un espace Euclidien.
Tout sous espace F de E admet un supplémentaire orthogonal dans E. On a :F + F ⊥ = E
hl
et F ⊥⊥ = F .
4.
ak
Projecteur et symétrie orthogonale d’un espace euclidien :
Projecteur orthogonal :
Définition :
M
Soient (E, h., .i) un espace Euclidien et F un sous e.v de E.
On appelle projection orthogonale de E sur F , la projection de E sur F parallèlement à
F ⊥ qu’on note PF .
PF2
= PF ,
Donc PF est la projection orthogonale de E sur F ⇔
⊥
E = ImPF ⊕ ker PF .
n
PF2 = PF ,
PF est la projection orthogonale de E sur F ⇔
Be
⊥ ker PF .
ImPF
Remarque :
Si PF est la projection orthogonale de E sur F , alors pour tout x ∈ E, on a :
• PF (x) ∈ F .
• x − PF (x) ∈ F ⊥ .
• kxk2 = kx − PF (x)k2 + kPF (x)k2 .
ou
Proposition :
Soient (E, h., .i) un espace Euclidien et F un sous e.v de E de dim p.
Soit BF = {e1 , ..., ep } une base orthonormée de F , la projection orthogonale de E sur F
est définie :
hl
PF : E→ E
p
X
x 7→ hei , xiei .
i=1
Preuve :
ak
On remarque que PF est une application linéaire et que pour tout j ∈ [[1, p]], PF (ej ) = ej .
Soit x ∈ E, on a
p
M
X
PF2 (x) = PF ( hei , xiei ),
i=1
p
X
= hei , xiPF (ei ),
i=1
Xp
= hei , xiei ,
i=1
= PF (x).
PF2 (x) = PF (x), ∀x ∈ E. Donc PF2 = PF .
n
D’où
p
X
Soit x ∈ ker PF ⇔ PF (x) = 0E ⇔ hei , xiei = 0E .
i=1
Donc, hei , xi = 0, ∀i ∈ [[1, p]]. Ce qui prouve que x ∈ F ⊥ = ImPF .
Be
ϕ: F → R+
ou
y 7→ kx − yk = d(x, y).
hl
d(x, F ) = inf d(x, y) = inf kx − yk = minkx − yk = kx − PF (x)k.
y∈F y∈F y∈F
kx − y0 k2 = kx − PF (x) + PF (x) − y0 k2 ,
= kx − PF (x)k2 + kPF (x) − y0 k2 .
n
Proposition :
Soient (E, h., .i) un espace Euclidien et F un sous e.v de E de dim p.
Soit BF = {e1 , ..., ep } une base orthonormée de F , on note PF la projection orthogonale
de E sur F . Alors, pour tout x ∈ E, on a :
p
d2 (x, F ) = kx − PF (x)k2 = kxk2 − hei , xi2 .
X
i=1
i=1
Exercice :
R1
Soit l’espace E = Rn [X] n ≥ 3, muni du produit scalaire hP1 , P2 i = −1 P1 (t)P2 (t)dt ∀P1 , P2 ∈
E.
ou
On note F = R2 [X] et Q = X 2 . Déterminer d(Q, F ).
Correction :
D’après le théorème de projection, on a :
T −P yth
d2 (Q, F ) = kQ − PF (Q)k2 = kQk2 − kPF (Q)k2 . Donc, il faut exprimer PF (Q). On
hl
commence par construire une base orthonormée de R2 [X].
On applique le procédé de schmidt à la base canonique Bc = (1, X, X 2 ) de R2 [X]. On
note Bo = (P0 , P1 , P2 ) l’othonormalisée de la base canonique Bc = (1, X, X 2 ) de R2 [X] et
R1 1
kP k = ( P 2 (t)dt) 2 . On a :
P0 =
−1
1
k1k
= √1 ,
X−hP0 ,XiP0
2
q
3
ak
P1 = kX−hP0 ,XiP0 k
= 2
X,
2 2 2
q
X −hP0 ,X iP0 −hP1 ,X iP1 45
P2 = kX 2 −hP ,X 2 iP −hP ,X 2 iP k =
0 0 1 1 8
(X 2 − 31 ).
On a : PF (Q) = hP0 , X 3 iP0 + hP1 , X 3 iP1 + hP2 , X 3 iP2 .
M
q
d2 (Q, F ) = kQk2 − kPF (Q)k2 = kX 3 k2 − hP0 , X 3 i2 + hP1 , X 3 i2 + hP2 , X 3 i2 .
2 6 8
Donc d2 (X 3 , R2 [X]) = 7
− 25
= 175
.
Proposition :
Soient (E, h., .i) un espace Euclidien et P un projecteur de E .
n
Preuve :
1. (1 ⇒ 2) Soient x, y ∈ E,
ou
hx, yi = hP (z), yi = hz, P (y)i = 0.
| {z }
0E
Symétrie orthogonale :
hl
Définition :
Soient (E, h., .i) un espace Euclidien et F un sous e.v de E.
On appelle symétrie orthogonale de E par rapport à F , la symétrie de E par rapport à
F parallèlement à F ⊥ qu’on note SF .
ak
Donc SF est la symétrie orthogonale de E par rapport à F ⇔
SF2
= IdE ,
M
⊥
= ker(SF − IdE ) ⊕ ker(SF + IdE ).
E
SF2
= IdE ,
− IdE ) ⊥ ker(SF + IdE ).
ker(SF
Be
Remarque :
Soit S ∈ L(E), S est une symétrie orthogonale de E si et si l’endomorphisme P =
1
2
(S + IdE ) est un projecteur orthogonal de E.
Proposition :
Soient (E, h., .i) un espace Euclidien et S une symétrie de E.
1. S est orthogonale.
ou
5. Calculs dans une base orthonormée :
hl
Tout espace euclidien admet une base orthonormée.
Théorème : ak
Toute famille orthonormée d’un espace euclidien E peut être complétée en une base or-
thonormée de E.
Preuve :
Soit S = (e1 , ..., ep ) une famille orthonormée de E (p < n).
M
Comme S est libre dans E, on lui applique le théorème de base incompète ⇒ ils existent
xp+1 , ..., xn des vecteurs de E tels que la famille B = (e1 , ..., ep , xp+1 , ..., xn ) soit une base
de E.
On applique le procédé de schmidt à B qui lesse invariant e1 , ..., ep et tranforme xp+1 , ..., xn .
n
Proposition :
Soient (E, h., .i) un espace Euclidien de dim n et Bo = {e1 , ..., en } une base orthonormée
Be
de E.
n
X
1. Pour tout x ∈ E, x = hei , xiei .
i=1
n n
x2i = hei , xi2 .
X X
2. Pour tout x ∈ E, kxk2 =
i=1 i=1
| {z }
xi
n
X n
X
3. Pour tout x, y ∈ E, hx, yi = hei , xihei , yi = xi y i .
i=1 i=1
ou
Soient (E, h., .i) un espace Euclidien de dim n et B = {e1 , ..., en } une base de E.
n
X n
X
Soit x, y ∈ E, alors x = xi ei et y = yi ei , xi , yi ∈ R, ∀i ∈ [[1, n]]. On note
i=1 i=1
x1 y1
. .
X= .. et Y = .. les vecteurs coordonnées de x et y dans B.
hl
xn yn
B B
n
X n
X
hx, yi = h xi ei , yj ej i,
i=1 j=1
n X
X n
= xi yj hei , ej i.
i=1 j=1
ak
he1 , e1 i he1 , e2 i . . . he1 , en i
On note : A = (hei , ej i)1≤i,j≤n = he , e i
2 1 ... ... he2 , en i
∈ Mn (R).
M
.. ..
. .
hen , e1 i ... . . . hen , en i
A s’appelle la matrice du produit scalaire h., .i dans la base B ou bien matrice de Gram
dans la base B.
n
On obtient :
hx, yi =t XAY.
Be
On remarque que :
1. A est symérique.
ou
0
y1
.
.. les vecteurs coordonnées de x et y dans B 0 .
yn0
B0
On note A0 = (he0i , e0j i)1≤i,j≤n la matrice du produit scalaire h., .i dans la base B 0 .
hl
On a :
hx, yi =t X0 A0 Y0 , ∀x, y ∈ E.
Conclusion :
Si A est la matrice de Gram du produit scalaire h., .i dans une base B de E et A0 est la
ou
Dans le cas où B 0 est une base orthonormée, on trouve A0 = In et 1 = (det P )2 det A.
1
D’où det A = (det P )2
.
Ce qui montre que toute matrice de Gram dans une base de E est inversible.
hl
II Endomorphisme orthgonal - Matrice orthogonale :
1. Endomorphisme orthgonal :
Définition :
ak
Soient (E, h., .i) un espace Euclidien et f ∈ L(E).
f est un endomorphisme orthogonal de E si f conserve le produit scalaire, c.a.d
M
pour tout x, y ∈ E, hf (x), f (y)i = hx, yi.
Proposition :
Tout endomorphisme orthogonal d’un espace euclidien est bijectif.
n
Preuve :
Si f est orthogonal, alors pour tout x, y ∈ E, hf (x), f (y)i = hx, yi. En particulier si
x = y, on obtient : kf (x)k2 = kxk2 ⇒ kf (x)k = kxk.
Be
1. f conserve la norme.
ou
3. L’image par f de toute base orthonormée E est une base orthonormée E .
4. Il existe une base orthonormée E telle que son image est une orthonormée
E.
hl
Preuve :
1. (1 ⇒ 2) Soit x, y ∈ E, on a
ak
hx, yi = 21 (kx + yk2 − kxk2 − kyk2 ),
= 12 (kf (x + y)k2 − kf (x)k2 − kf (y)k2 ),
= 12 (kf (x) + f (y)k2 − kf (x)k2 − kf (y)k2 ),
= hf (x), f (y)i.
M
2. (2 ⇒ 3) Soit B = (e1 , ..., en ) une base orthonormée de E.
Soit i, j ∈ [[1, n]], hf (ei ), f (ej )i = hei , ej i = δij .
Par suite, la famille f (B) = (f (e1 ), ..., f (en )) est orthnormée donc libre dans l’es-
pace E qui est de dim n.
n
3. (3 ⇒ 4) Evident.
Be
ou
Notation :
Soit (E, h., .i) un espace Euclidien.
On note O(E) l’ensemble des automorphismes orthogonaux de E.
Propriétés :
hl
Soit (E, h., .i) un espace Euclidien et f, g ∈ O(E).
1. Soit x ∈ E, on a :
kf ◦ g(x)k = kf (g(x))k,
= kg(x)k car f est orthogonal,
n
2. Soient f ∈ O(E) et λ ∈ R.
Si λ ∈ SPR (f ) alors il existe x ∈ E\{0E } tel que f (x) = λx.
Donc, kf (x)k = kλxk et kf (x)k = kxk.
Par suite, |λ| = 1 d’où λ = ±1 et SPR (f ) ⊂ {−1, 1}.
ou
|{z}
∈F ⊥ ∈F
Remarque :
Si SF est une symétrie othogonale de E par rapport à F , alors SF ∈ O(E).
Si PF est une projection orthogonale de E sur F , alors PF ∈ O(E) ⇔ PF = IdE .
Notation :
hl
On appelle réflexion de E, toute symétrie orthogonale par rapport à un hyperplan de E.
On appelle demi-tour de E, toute symétrie orthogonale par rapport à une droite vecto-
rielle de E.
ak
2. Matrice orthgonale :
n
X
n
R est muni de son produit scalaire canonique (X\Y ) = xi yi , où
M
i=1
x1 y1
. .
X= .. et Y = .. , Bc base canonique de Rn .
xn yn
Bc Bc
Définition :
n
fA : Rn → Rn
Be
x1
.
X= .. 7→ AX.
xn
Bc
Théorème
Soit A ∈ Mn (R). Les propositions suivantes sont équivalentes :
ou
1. A est orthogonale .
2. At A =t AA = In .
hl
3. Les vecteurs colonnes de A forment une base orthonormée de Rn .
Preuve :
ak
(1 ⇔ 2) A orthogonale ssi pour tout X, Y ∈ Rn , on a :
(AX\AY ) = (X\Y ), ⇔
t
(AX)AY =t XY, ⇔
M
t
X t AAY =t XY, ⇔
t
X(t AA − In )Y = 0, ⇔
(X\(t AA − In )Y = 0.
⇔ (t AA − In )Y = 0Rn , ∀ Y ∈ Rn .
n
⇔ t AA = In .
Be
Application :
2 3 6
Soit la matrice A = 71
. Montrer que A est orthogonale.
3 −6 2
6 2 2
ou
On a : kC1 k = kC2 k = kC3 k = 1 et (C1 \C2 ) = (C2 \C3 ) = (C1 \C3 ) = 0.
⇒ (C1 , C2 , C3 ) est une base orthonormée de Rn . Par suite, A est une matrice orthogonale.
Poposition :
hl
Soit A ∈ Mn (R). Si A est orthogonale, alors det A = ±1.
Preuve :
Si A est orthogonale, alors t AA = In donc (det A)2 = 1.
Notation :
ak
On note : O(n) l’ensemble des matrices orthogonales d’ordre n.
On note : SO(n) l’ensemble des matrices orthogonales d’ordre n de déterminant 1 ou bien
M
l’ensemble des rotations matricielles d’ordre n.
Proposition :
Théorème
Soit (E, h., .i) un espace Euclidien et f ∈ L(E).
f est orthogonal si et si sa matrice dans une base orthonormée est orthogonale.
ou
Bo ).
ssi ∀X, Y ∈ Rn , t X t M M Y =t XY .
ssi ∀X, Y ∈ Rn , t X(t M M − In )Y = 0.
ssi t M M = In .
hl
Proposition :
Soit f ∈ O(E), alors det f = ±1.
Preuve :
ak
Soit f ∈ O(E), d’après le théorème précédent la matrice M de f dans une base orthonor-
mée Bo de E est orthogonale.
M
Donc det f = det M = ±1.
Notation :
On note : SO(E) l’ensemble des automorphismes orthogonaux de E de déterminant 1 ou
bien ensemble des rotations vectorielles de E.
n
Pour orienter un espace euclidien, il suffit de choisir une base B de E. Soit B 0 une
autre base de E.
B 0 est dite une base directe de E si detB (B 0 ) > 0.
ou
ac + bd = 0 (3).
hl
L égalité (3) est équivalente à :cos(θ − θ0 ) = 0
ak π −π
θ − θ0 ≡ [2π] ou θ − θ0 ≡ [2π].
2 2
π π
θ0 ≡ θ − [2π] ou θ0 ≡ θ + [2π].
M
2 2
• Si θ0 ≡ θ − π2 [2π] :
On
obtient :
cos θ 0
= sin θ,
sin θ 0 = − cos θ.
n
Donc
cos θ sin θ
A=
= Sθ .
sin θ − cos θ
Be
• Si θ0 ≡ θ + π2 [2π] :
On obtient :
sin θ 0
= cos θ.
Donc
cos θ − sin θ
A=
= Rθ .
sin θ cos θ
ou
On a : det Rθ = 1, alors Sθ est une rotation.
Conclusion :
cos θ − sin θ cos θ sin θ
O(2) = Rθ = , Sθ = , θ∈R .
hl
sin θ cos θ sin θ − cos θ
cos θ − sin θ
SO(2) = Rθ =
,
θ ∈ R .Rotations du plan
sin θ cos θ
Propriétés de O(2) :
ak
Soit θ, θ0 ∈ R, on a :
M
1. Sθ2 = I2 , t Sθ = Sθ .
Remarque :
On remarque que le groupe SO(2) est commutatif : Rθ Rθ0 = Rθ+θ0 = Rθ0 Rθ , ∀θ, θ0 ∈ R.
n
Be
fθ : R2 → R2
0
x x x
7→
= Rθ
0
y y y
x0
= x cos θ − y sin θ
ou
y 0 = x sin θ − y cos θ.
hl
Si on pose Z = x + iy et Z 0 = x0 + iy 0 , alors on obtient : Z 0 = exp(iθ)Z.
C’est l’écriture complexe de la rotation Rθ .
Preuve :
Soient B1 et B2 deux bases orthonormées directes de E. On note :
Be
ou
2 2
2
− 2
On considère la matrice : A =
√ √
A est une matrice orthogonale de det 1,
2 2
2 2
donc A ∈ SO(2).
D’après la proposition
précédente,
existe
un unique réel θ tel que A = Rθ . On oriente
R2
1 0 1
hl
par la base B = (U = , V = ) puis on prend le vecteur unitaire U = .
0 1 0
√ √
2 2
On obtient :(U \AU ) = 2
= cos θ et detB (U, AU ) = 2
= sin(θ).
⇒ θ ≡ π4 [2π].
ak
Classification de O(E), dim E = 2 :
Soit f un automorphisme orthogonal d’un espace euclidien de dim 2.
On note χf le polynôme caractéristique de f . Donc, χf ∈ R[X] et deg(χf ) = 2.
M
Cas 1 : Si SPR (f ) = ∅.
Dans ce cas χf admet deux valeurs propres complexes conjuguées λ, λ.
Par suite det f = λλ = |λ|2 ≥ 0. D’où det f = 1.
Donc f est une rotation
6 kπ, k ∈ Z.
d’angle θ =
cos θ − sin θ
⇒ MBo (f ) = Rθ = avec Bo une base orthonormée de E.
n
sin θ cos θ
Be
ou
Cas 4 : Si SPR (f ) = {−1, 1}.
Dans ce cas : det f = −1 et dim E−1 (f ) = 1, dim E1 (f ) = 1 . Par suite f est la symétrie
orthogonale de E par rapport
à F = E1 (f ). (parallèllement à G = E−1 (f ))
hl
1 0
MBo (f ) = S0 =
avec Bo une base orthonormée de E.
0 −1
• Si dim E1 (f ) = 1.
Dans ce cas χf admet une valeur propre réelle égale à 1 et deux valeurs propres complexes
conjuguées λ, λ.
Par suite det f = 1 × λλ = |λ|2 ≥ 0. D’où det f = 1.
Donc f est une rotation d’axe E1 (f ) et d’angle θ 6= kπ, k ∈ Z.
ou
Par le même raisonnement que celui du cas 1, on a : dim E−1 (f ) ∈ {1, 3}.
Par suite, on distingue deux cas :
• Si dim E−1 (f ) = 3 c.a.d E−1 (f ) = E. Donc f = −IdE .
• Si dim E−1 (f ) = 1.
hl
Dans ce cas χf admet une valeur propre réelle égale à −1 et deux valeurs propres com-
plexes conjuguées λ, λ.
Par suite det f = (−1) × λλ = |λ|2 ≥ 0. D’où det f = −1.
ak
f n’est pas une rotation ni une symétrie orthogonale mais c’est la composée d’une rotation
d’axe E−1 (f ) = E et d’angle θ 6= kπ, k ∈ Z et d’une symétrie orthogonale par rapport à
(E−1 (f ))⊥ .
−1 0 0
⇒ MBo (f ) = avec Bo une base orthonormée appropriée de E.
M
0 cos θ − sin θ
0 sin θ cos θ
On a det f = 1, par suite f est une rotation d’axe E1 (f ) et d’angle π c’est aussi la symétrie
orthogonale de E par rapport
à E1 (f ). Dans ce cas f s’appelle un demi-tour .
Be
1 0 0
⇒ MBo (f ) =
0 −1 0
avec Bo une base formée par des vecteurs propres de f .
0 0 −1
ou
III Réduction des endomophismes et des matrices
symétriques :
hl
Soit (E, h., .i) un espace euclidien de dim n.
Définition :
Soit f ∈ L(E).
ak
f est symétrique si pour tout x, y ∈ E, on a hf (x), yi = hx, f (y)i.
Exemples :
Toute symétrie orthogonale de E est un endomorphisme symétrique.
Tout projecteur orthogonal de E est un endomorphisme symétrique.
M
Proposition :
Soit f ∈ L(E).
f est un endomorphisme symétrique si et si sa matrice dans une base orthonomée de E
est symétrique.
n
Preuve :
Be
ou
i=1 j=1
n
X Xn
=h xi f (ei ), yj ej i
i=1 j=1
n X
X n
= xi yj hf (ei ), ej i
i=1 j=1
| {z }
mij =mji
n X
X n
= xi yj hf (ej ), ei i,
hl
i=1 j=1
Xn n
X
=h xi ei , f ( yj ej )i,
i=1 j=1
= hx, f (y)i.
D’où, f est symétrique.
ak
Propriétés des endomorphismes symétriques :
Soit f ∈ L(E) symétrique. Alors :
⊥
1. Imf ⊕ ker f = E.
M
2. Si λ, β ∈ SPR (f ) avec λ 6= β, alors Eλ (f ) ⊥ Eβ (f ).
3. Si F est un sous e.v de E stable par f alors F ⊥ est aussi stable par f .
Preuve :
n
D’où Imf ⊥ ker f . D’après le théorème du rang, dim E = dim Imf + dim ker f .
⊥
Ce qui montre que : Imf ⊕ ker f = E.
ou
4. Soit f un endomorphisme symétrique de E.
Soit λ ∈ SPC (f ). Soient Bo une base orthonormée de E et M ∈ Mn (R) la matrice
de f dans cette base.
x1
λ ∈ SPC (f ), donc il existe X = ... ∈ Mn1 (C) non nul tel que M X = λX.
hl
xn
On exprime le scalaire t XM X de deux manières.( X est le conjuguée de X).
n
|xi |2 .
X
t t t
• XM X = XλX = λ XX = λ
i=1
t
Donc, XM X = λ
n
X
i=1
ak
2
|xi | (1).
ou
formée par des vecteurs propres de f . Donc, on a :
⊥ ⊥ ⊥
E = Eλ1 (f ) ⊕ Eλ2 (f ) ⊕ ... ⊕ Eλp (f ).
hl
Preuve :
ak
On montre ce résultat par récurrence sur n = dim E ∈ N∗ .
• Si dim E = 1 :
M
Soit x ∈ E ∈ \{0E }, on a f (x) = λx, λ ∈ R.
x
On pose : e = kxk
, donc (e) est une base orthonormée de E formée par un vecteur propre
de f .
• On suppose que le théorème est vérifié dans tout espace euclidien de dim = n−1, n ≥
n
2.
Be
ou
F ⊥ formée par des vecteurs propres de f˜F ⊥ donc de f .
On a : F + F ⊥ = E ce qui implique que la famille B = {e1 , e2 , ..., en } est une base ortho-
normée de E formée par des vecteurs propres de f .
hl
2. Réduction des matrices réelles symétriques :
Définition :
ak
Soit A ∈ Mn (R), A est symétrique si t A = A.
Proposition :
Soit A ∈ Mn (R).
Théorème
Théorème spectrale :
Soit A ∈ Mn (R) symétrique. Alors, A est diagonalisable dans Mn (R). De plus, il
n
D = P −1 AP =t P AP.
hl
ak
Chapitre IIII :
M
Équations différentielles linéaires
n
Be
ou
Équations différentielles linéaires
hl
K désigne R ou C.
Soit I un intervalle de R, d’intérieur non vide et X une application de I dans Kn . K
désigne R ou C.
ak X : I −→ Kn
x1 (t)
x (t)
2
M
t 7−→
.
..
xn (t)
I Système différentiel :
n
1. Définitions :
A : I −→ Mn (K)
a11 (t) · · · a1n (t)
. ..
t 7−→ .. .
an1 (t) · · · ann (t)
117
B est continue sur I :
B : I −→ Kn
b1 (t)
.
.
t 7−→ B(t) = ..
bn (t)
ou
• On appelle système différentiel linéaire, toute équation de la forme :
hl
x02
= a21 (t)x1 + · · · + a2n (t)xn + b2 (t)
équivalente à (S) : .
.
..
ak x0
n = an1 (t)x1 + · · · + ann (t)xn + bn (t)
• Une I-Solution de (E) ou de (S) est une application X de classe C 1 sur I à valeur dans
Kn telle que :∀t ∈ I, X 0 (t) = A(t)X(t) + B(t).
M
• Soit (t0 , X0 ) ∈ I × Kn , on appelle problème de Cauchy le système suivante :
x0
= A(t) : X + B(t)
S(t0 ,X0 ) .
X(t0 ) = X0
x01 = a11 (t)x1 + · · · + a1n (t)xn
Be
x02
= a21 (t)x1 + · · · + a2n (t)xn
(H) : X 0 = A(t)X éq
..
.
x0 = an1 (t)x1 + · · · + ann (t)xn .
n
Théorème de Cauchy-Lipschitz :
Théorème
Soient I un intervalle de R, A une application continue de I dans Mn (K) et B une
application continue de I dans Kn .
ou
X 0
= A(t)X + B(t),
Pour tout (t0 , X0 ) ∈ I ×Kn , le problème de Cauchy S(t0 ,X0 )
X(t0 )
= X0 .
admet une unique I-Solution.
hl
Structure de l’ensemble des solutions de (E) :
Théorème
1. L’ensemble SH des I-solutions de l’équation (H) est un sous espace vectoriel
M
de C 1 (I, Kn ) de dim n.
XE = XH + Xp ,
n
Preuve :
On remarque que SH est un sous e.v de C 1 (I, Kn ).
Soit (t0 , X0 ) ∈ I × Kn . On considère l’application :
Φt0 : SH −→ Kn
X 7−→ Φt0 (X) = X(t0 )
X 0
= A(t)X
ou
X(t0 )
= X0 .
C.à.d pour tout X0 ∈ Kn , il existe une unique application X ∈ SH tq Φt0 (X) = X0 ce qui
prouve Φt0 est bijective.
hl
Conclusion : Φt0 est linéaire bijective donc Φt0 est un isomorphisme de SH dans Kn .
Donc dim SH = n.
Définition
.
x0 = an1 x1 + · · · + ann xn
n
Be
Résolution :
V1 . . . Vn
λ1 0
... e1
..
P =
.
et D = . .
.. . . . .. ..
.
.
0 λn
ou
... en
on a
X 0 = AX éq à X 0 = P DP −1 X,
éq à P −1 X 0 = D(P −1 X).
hl
on pose Y = P −1 X.
Proposition
Si X ∈ C 1 (I, Kn ), alors : ak
1. Y = P −1 X ∈ C 1 (I, Kn ) et Y 0 = P −1 X 0 .
Théorème
Soit A ∈ Mn (K) diagonalisable dans Mn (K) et soit λ1 , · · · , λn les valeurs propres
M
de A. Si (V1 , · · · , Vn ) est une base de Mn,1 (K) formée par des vecteurs propres de
A associés resp à λ1 , · · · , λn alors :
la solution générale du système X 0 = AX est définie sur R par :
n
Ci eλi t Vi , ∀ t ∈ R,
X
X(t) =
i=1
n
avec C1 , · · · , Cn ∈ K.
Be
Xi : I −→ Kn , i ∈ [[1, n]]
t 7−→ eλi t Vi
V1 . . . Vn
λ1 0
... e1
A = P DP −1 où D =
..
et P =
.
. .
.. ..
.. .
. . .
0 λn
ou
... en
•Résolution du système Y 0 = DY :
0
y1 λ1 0 y1
.. ... .
.. .
hl
éq à
.
=
yn0 0 λn yn
y10 = λ1 × y 1 ,
ak
éq à
..
.
yn0 = λn × y n .
M
y1 (t) = C1 eλ1 t , ∀t ∈ I,
= C2 eλ2 t , ∀t ∈ I,
y2 (t)
Donc
..
.
y n (t) = Cn eλn t , ∀t ∈ I.
n
avec C1 , C2 , · · · , Cn ∈ K.
on a : X = P Y .
V1 ... Vn
x1 . . y1
c.à.d .
...
.
.
= .
. .
xn . . yn
ou
1 1 1 1
1 1 −1 −1
X 0 = AX où A =
.
1
−1 1 −1
1 −1 −1 1
hl
• Diagonalisation de A :
0 0 1
1 1 1
V1 = ,V 2 = et V3 = .
M
−1 0 0
1 −1 0
−1
1
n
X0
= AX
1
ou
0
.
X(0) =
0
0
hl
(2)Résoudre dans M3,1 (R) le système suivant :
x0 = 3x − 21 y − 32 z
ak
(S) y 0 = z
z 0
= 4x − y − 2z
.
(S) éq à X 0 = AX,
−1 −3
x 3 2 2
M
avec X = y
et A = 0
0 1
z 4 −1 −2
On a χA est scindé
à racine simple dans C ⇒ A est diagonalisable dans Mn (C).
n
1
• λ = 1 ⇒ V1 = 1.
Be
1
1
• λ = i ⇒ V2 = −2i.
2
ou
X(t) = C1 et V1 + C2 eit V2 + C3 e−it V3 , ∀t ∈ R avec C1 , C2 , C3 ∈ C.
Donc
1 1 1
hl
−it
C1 e t it
X(t) = 1
+ C 2 e −2i
+ C 3 e 2i .
1 2 2
• La solution
générale à valeurs réelles
:
On a : it
1
e −2i
=
ak 1
(cos t + i sin t) −2i
2 2
cos t sin t
M
= 2 sin t + i −2 cos t
2 cos t 2 sin t
Par suite,
• La solution générale de (S) à valeurs réelles est
n
∀t ∈ R avec αi , α2 , α3 ∈ R.
ou
Application : Résoudre le système :
x0 = −6x + 5y + 3z
(S) y 0 = −8x + 7y + 4z
hl
z 0 = −2x + y + z
−6 5 3
Indication : Montrer que la matrice A = −8 7 4 est semblable à la matrice T =
ak
−2 1 1
0 0 1
0 1 2
M
0 0 1
Définition :
Be
ou
α(t)x0
+ β(t)x + γ(t) = 0
S(t0 ,x0 ) .
x(t0 )
= x0 .
hl
Théorème
• Soit l’ équation (H) : x0 = a(t)x où a est une application continue sur I.
La solution générale de (H) est de la forme
xH (t) = CeA(t) , ∀t ∈ I, C ∈ K
ak
avec A une primitive de a sur I.
• Soit b une fonction continue sur I.
La solution générale de (R) : x0 = a(t)x + b(t)
est de la forme
M
x(t) = CeA(t) + xp (t), ∀t ∈ I
C 0 (t) = b(t)e−A(t) , ∀ t ∈ I.
Rt
et x(t) = (C + b(s)e−A(s) ds)eA(t) , ∀ t ∈ I, C ∈ K.
t0
ou
Exercice : Résoudre l’équation (E) : tx0 − 2x = t.
hl
Définitions :
• Une J-solution de (R) : x00 = a(t)x0 + b(t)x + c(t) (où a, b, c continues sur J) est une
fonction de classe c2 sur J, vérifiant, ∀t ∈ J.
Be
α(t)x00 + β(t)x0 + γ(t)x = λ(t)
x(t0 ) = x0 ( déplacement à l’instant t0 ) ,
x0 (t0 ) = x1 ( vitesse à l’instant t0 )
ou
avec α, β, γ et λ continues sur I et (t0 , x0 , x1 ) ∈ I × K2 .
hl
Soit l’équation (R) : x00 = a(t)x0 + b(t)x + c(t), t ∈ I avec a, b et c continues sur I.
On pose :
0
x x
⇒ X0 =
On obtient :
ak
X=
x0
x00
0
x 0 1 x 0
X0 =
=
+
, ∀t ∈ I
00 0
x b(t) a(t) x c(t)
M
Donc l’équation (R) est équivalente au système X 0 = A(t)X + B(t) avec
0 1 0
A(t) =
et B(t) =
.
b(t) a(t) c(t)
n
Be
ou
x00 = a(t)x0 + b(t)x + c(t),
x(t0 ) = x0 , .
x0 (t0 ) = x1 .
hl
admet une unique I-solution.
Théorème
ak
1. L’ensemble SH des I-solutions de l’équation homogène
(a, b et c continues sur I), est un espace affine de dim 2 inclus dans C 2 (I, K).
Be
xR = xH + xP
Preuve :
ou
(αx1 + x2 )00 = a(t)(αx01 + x02 ) + b(t)(αx1 + x2 ),
= a(t)(αx1 + x2 )0 + b(t)(αx1 + x2 ).
donc αx1 + x2 ∈ SH .
• Soit t0 ∈ I : L’app ϕt0 : SH → K2
est linéaire
hl
x 7−→ (x(t0 ), x0 (t0 ))
De plus grâce au Théorème de Cauchy-Lipschitz ϕ0 est bijective
⇒ ϕt0 est un isomorphisme d’où dimK SH = dim K2 = 2
ak
Remarque : On peut retrouver ce résultat en remarquant que (H) est équivalente à
un système différentiel du type
Définition :
On appelle système fondamental des solutions de (H) :
Be
f (t0 ) g(t0 )
1. Il existe t0 ∈ I tel que le déterminant 6= 0
f 0 (t0 ) g 0 (t0 )
m
ou
m
f (t) g(t)
3. Pour tout t ∈ I, 6= 0
0 0
f (t) g (t)
Preuve :
hl
((1) ⇒ (2)) Soit t0 ∈ I, ϕt0 : SH → K2
x 7−→ (x(t0 ), x0 (t0 ))
est un isomorphisme.
Si
f (t0 )
0 0
g(t0 )
f (t0 ) g (t0 )
ak
f (t0 )
6= 0, alors les vecteurs
0
f (t0 )
g(t0 )
et
0
g (t0 )
f (t0 ) g(t0 )
Donc ϕ−1
t0
−1
, ϕt0 est
une base de SH .
0 0
f (t0 ) g (t0 )
M
f (t0 ) g(t0 )
or ϕ−1
t0
= f et ϕ−1
t0
= g.
0 0
f (t0 ) g (t0 )
D’où (f, g) base de SH .
((2) ⇒ (3)) Maintenant on considère l’application ϕt où t ∈ I :
ϕt : SH → K2
n
f (t) g(t)
W(f,g) (t) = .
f 0 (t) g 0 (t)
f (t0 ) g(t0 )
W(f,g) (t0 ) = 6= 0.
f 0 (t0 ) g 0 (t0 )
ou
3. Équations différentielles linéaires à coefficients constants d’ordre
2:
hl
Soit les équations :
on peut vérifier que les fonctions f, g définies sur I par f (t) = er1 t et g(t) = er2 t est une
base de SH à l’aide du Wronshien, en effet :
Be
1 1
W(f,g) (0) = = r2 − r1 6= 0.
r1 r2
ou
Si K = R, a, b ∈ R (conséquence directe du cas complexe )
*1 ièr cas : P admet deux racines réelles distinctes de r1 et r2 ,
⇒ xH (t) = αer1 t + βer2 t , ∀t ∈ I et α, β ∈ R.
*2 ième cas : P admet deux racines complexes conjuguées
r1 = µ + iη , r2 = µ − iη, avec µ, η ∈ R,
hl
xH (t) = eµt (α cos(ηt) + β sin(ηt)), ∀t ∈ I, α, β ∈ R.
*3 ième cas : P admet une racine réelle double r,
xH (t) = αert + βtert , ∀t ∈ I avec α, β ∈ R.
ak
Remarque : On considère le système différentiel associé à (H) :
0
x 0 1 x
X0 =
M
=
.
00
x b a x0
0 1
Le polynôme P n’est autre que le polynôme caractéristique de la matrice A =
.
b a
ou
(E) : x00 − 5x0 = (t2 + 1)e5t .
hl
ak
M
n
Be