Académique Documents
Professionnel Documents
Culture Documents
4 Cours
4 Cours
co
Notes de cours
ALGEBRE 2
ro.
Guillaume CARLIER
-p
ari
bk
3a
al
w.
ww
ww
w.
al3a
bk
2
ari
-pro.
co
m
m
Ce support de cours est basé sur le poly de Tristan Tomala des années
précédentes.
co
-p ro.
ari
bk
al 3a
w.
ww
3
ww
w.
al3a
bk
4
ari
-pro.
co
m
m
co
Table des matières
ro.
1 Espaces vectoriels 7
1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . 7
-p
1.2 Sous-espaces vectoriels . . . . . . . . . . .
1.3 Bases d’un espace vectoriel . . . . . . . . .
1.4 Somme directe de sous-espaces vectoriels .
1.5 Somme directe de k sous-espaces vectoriels
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8
8
11
13
ari
2 Applications linéaires 14
2.1 Définitions et vocabulaire . . . . . . . . . . . . . . . . . . . . 14
2.2 Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Image et noyau d’une application linéaire . . . . . . . . . . . . 16
bk
3 Représentation matricielle 20
3.1 Caractérisation d’une application linéaire par l’image d’une base 20
3.2 Matrices et applications linéaires . . . . . . . . . . . . . . . . 20
3.2.1 Liens avec le calcul matriciel . . . . . . . . . . . . . . 22
3.2.2 Produit de matrices . . . . . . . . . . . . . . . . . . . . 22
al
5
m
4 Déterminants 27
4.1 Formes m-linéaires alternées . . . . . . . . . . . . . . . . . . . 27
co
4.2 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2.1 Définition et propriétés admises . . . . . . . . . . . . . 28
4.3 Le théorème fondamental . . . . . . . . . . . . . . . . . . . . . 29
4.4 Calcul pratique du déterminant . . . . . . . . . . . . . . . . . 30
ro.
5 Diagonalisation des matrices et des endomorphismes 31
5.1 Valeurs propres et vecteurs propres d’un endomorphisme . . . 31
5.2 Valeurs propres et vecteurs propres d’une matrice . . . . . . . 32
5.3 Endomorphismes et matrices diagonalisables . . . . . . . . . . 33
5.3.1 Endomorphismes diagonalisables . . . . . . . . . . . . 33
-p
5.3.2 Matrices diagonalisables . . . . . . . . . . . . . .
5.4 Polynôme caractéristique . . . . . . . . . . . . . . . . . .
5.4.1 Le polynôme caractéristique . . . . . . . . . . . .
5.4.2 Multiplicité géométrique et multiplicité algébrique
. .
. .
. .
des
.
.
.
34
35
35
ari
valeurs propres . . . . . . . . . . . . . . . . . . . . . . 35
5.5 Calcul des puissances d’une matrice . . . . . . . . . . . . . . . 36
bk
al 3a
w.
ww
6
m
co
Chapitre 1
ro.
Espaces vectoriels
-p
On traite dans ce qui suit le cas réel, le cas complexe se traitant de manière
similaire.
ari
1.1 Espaces vectoriels
Définition 1.1 Un espace vectoriel sur R est un triplet (E, +, .) où
– E est un ensemble,
– “+” une loi de composition interne : E × E → E telle que
bk
7
m
4. (R[X], +, .) est un espace vectoriel réel et (C[X], +, .) est un C-espace
vectoriel.
co
1.2 Sous-espaces vectoriels
ro.
Définition 1.2 Sous-espace Vectoriel S.E.V.
0∈F
F est un S.E.V de E ⇔
∀(x, y) ∈ F 2 , ∀(λ, µ) ∈ R2 , λx + µy ∈ F
Remarque :
-p
- pour la seconde propriété, on peut se contenter de vérifier que
∀(x, y) ∈ F 2 , ∀λ ∈ R, λx + y ∈ F
ari
ou encore que
∀(x, y) ∈ F 2 , ∀µ ∈ R, x + µy ∈ F .
Remarquons qu’une intersection de s.e.v. est encore un s.e.v. (évidemment
une telle intersection est non vide puisqu’elle contient le vecteur nul).
bk
X
V ect(A) = {x ∈ E | x = λi ai , λi ∈ R, ai ∈ A}
i=1
X
avec x = λi g i .
i=1
8
m
Définition 1.5 – On dit que L, famille non vide de E, est une famille
libre de E si et seulement si
co
∈ N∗ , ∀(x1 , . . . , xp ) ∈ Lp , 2 à 2 distincts ∀(λ1 , . . . , λp ) ∈ Rp ,
∀p P
p
si i=1 λi xi = 0, alors λ1 = · · · = λp = 0 .
– Si L, famille non vide de E, n’est pas libre, on dit que L est liée.
ro.
– On dit que B, famille non vide de E, est une base de E si et seulement
si B est libre et génératrice.
-p
encore une partie génératrice.
2. Toute partie contenue dans une partie libre est libre.
3. Toute partie de E contenant le vecteur nul de E est liée.
ari
4. Toute partie réduite à un vecteur non nul est une partie libre.
E, on a les équivalences :
– L est une base de E,
– L est une famille libre maximale,
– L est une famille génératrice minimale.
3a
9
m
Propriété 1.2 1. Toute autre base de E contient exactement n éléments.
On dit que E est de dimension n et on note : dimE = n. Par conven-
co
tion, on pose dim({0}) = 0.
2. Toute partie libre contient au plus n éléments.
3. Toute partie génératrice contient au moins n éléments.
4. Toute partie libre (respectivement génératrice) de n éléments est une
ro.
base.
Bien noter que le point 4) donne une caractérisation utile en pratique des
bases en dimension finie.
-p
Propriété 1.3 Propriété fondamentale : Soit B = {e1 , . . . , en } une
base de E. Tout élément x de E s’écrit de façon unique comme combinaison
linéaire des ei :
n
ari
X
x= λi e i .
i=1
génératrice.
10
m
1.4 Somme directe de sous-espaces vectoriels
co
Définition 1.8 Soit E un R-espace vectoriel et E1 et E2 deux sous-espaces
vectoriels de E. On appelle somme de E1 et E2 le sous-espace vectoriel F de
E défini par
F = {x1 + x2 | x1 ∈ E1 , x2 ∈ E2 }
ro.
On note cette somme F = E1 + E2 .
Remarques :
– E1 + {0E } = E1 et {0E } + E2 = E2 .
– E1 + E2 = E2 + E1 .
Attention ! Ne pas confondre somme et union de sous-espaces vec-
-p
toriels. Si un vecteur x appartient à E1 + E2 , cela n’entraı̂ne pas que x
appartient à E1 ou à E2 .
ari
Proposition 1.3 Soit E un R-espace vectoriel et E1 et E2 deux sous-espaces
vectoriels de E. Alors E1 +E2 est le plus petit sous-espace vectoriel contenant
E1 ∪ E 2 :
E1 + E2 = V ect(E1 ∪ E2 ) .
bk
E1 ∩ E2 = {0}
11
m
La notion de somme directe est justifiée par les équivalences suivantes :
co
Proposition 1.4 Soient E un R-espace vectoriel et E1 et E2 deux sous-
espaces vectoriels de E. Soient B1 et B2 deux bases fixées de E1 et de E2 . Il
y a équivalence entre
1. La somme E1 + E2 est directe.
ro.
2. Si x1 ∈ E1 et x2 ∈ E2 sont tels que x1 + x2 = 0, alors x1 = x2 = 0.
3. B1 ∩ B2 = ∅ et B1 ∪ B2 est une base de E1 + E2 .
4. dim(E1 ) + dim(E2 ) = dim(E1 + E2 ).
-p
On dit que deux sous-espaces vectoriels E1 et E2 d’un R-espace vectoriel
E sont supplémentaires dans E si
E1 ⊕ E 2 = E .
ari
Remarques :
– Deux sous-espaces vectoriels E1 et E2 sont supplémentaires dans E, si
et seulement si,
bk
E1 ∩ E2 = {0} et E1 + E2 = E .
12
m
1.5 Somme directe de k sous-espaces vecto-
riels
co
Dans cette partie, E désigne un espace vectoriel sur K de dimension finie.
Définition 1.11 Soient E1 , ... ,Ek k sous-espaces vectoriels de E. La somme
des k sous-espaces vectoriels E1 , ... ,Ek est l’ensemble, noté E1 + · · · + Ek :
ro.
E1 + · · · + Ek = {x1 + · · · + xk où ∀i ∈ {1, . . . , k}, xi ∈ Ei }
Lemme 1.2 Soient E1 , ... ,Ek k sous-espaces vectoriels de E, B1 ,..., Bk
des bases de E1 , . . . , Ek . Alors B1 ∪ · · · ∪ Bk est une famille génératrice de
E1 + · · · + E k .
-p
Corollaire 1.1 Soient E1 , ... ,Ek k sous-espaces vectoriels de E. Alors
dim(E1 + · · · + Ek ) ≤ dim(E1 ) + · · · + dim(Ek ) .
Remarque : Il n’y a pas égalité en général. Notons que E1 + · · · + Ek =
ari
V ect(E1 ∪ · · · ∪ Ek ).
Remarques :
– Les deux définitions de somme directe coı̈ncident lorsque k = 2.
– Bien noter également que, si les k espaces vectoriels E1 , ... ,Ek sont
en somme directe, alors, pour i 6= j, la somme Ei + Ej est directe.
3a
La réciproque est fausse, c’est-à-dire qu’il ne suffit pas que tout couple
Ei + Ej soit en somme directe pour que la somme totale E1 + · · · + Ek
le soit.
Proposition 1.6 Soient E1 , ... ,Ek k sous-espaces vectoriels de E et B1 , . . . , Bk
des bases de E1 , . . . , Ek respectivement. Il y a équivalence entre
al
13
m
co
Chapitre 2
ro.
Applications linéaires
2.1
-p
Dans ce qui suit E et F désignent deux R-e.v..
Définitions et vocabulaire
ari
Définition 2.1 On appelle application linéaire de E dans F une application
f : E → F qui vérifie :
– ∀(x1 , x2 ) ∈ E × E, f (x1 + x2 ) = f (x1 ) + f (x2 )
– ∀λ ∈ R, ∀x ∈ E, f (λx) = λf (x)
bk
Définition 2.2
– Si f est une application linéaire bijective, on dit que f est un isomor-
phisme de E sur F .
– Si f est une application linéaire de E dans lui-même, on dit que f est
al
un endomorphisme de E.
Exemples :
1. L’application de E dans F qui à tout élément de E associe le vecteur
nul 0F de F est une application linéaire, appelée application nulle.
ww
14
m
3. Si A ∈ Mn,p (R), alors l’application fA : Mp,1 (R) → Mn,1 (R) définie par
co
∀X ∈ Mp,1 (R) , fA (X) = AX
Proposition 2.1
ro.
– Si f et g sont des applications linéaires de E dans F , alors f + g est
une application linéaire de E dans F :
-p
alors λf est une application linéaire de E dans F :
∀f ∈ L(E, F ), ∀λ ∈ R, λf ∈ L(E, F ) .
ari
– Si E, F , G sont des espaces vectoriels sur R, et si f et g sont des
applications linéaires allant respectivement de E dans F et de F dans
G, alors g ◦ f est une application linéaire de E dans G :
Proposition 2.2
15
m
1. Une application linéaire f transforme toute combinaison linéaire d’éléments
de E en une combinaison linéaire d’éléments de F . Plus précisément :
co
k
X k
X
∀(λ1 , . . . , λk ) ∈ Rk , ∀(x1 , . . . , xk ) ∈ E k , on a f ( λ i xi ) = λi f (xi ) .
i=1 i=1
ro.
3. L’image directe par f d’un S.E.V. de E est un S.E.V. de F .
4. L’image réciproque par f d’un S.E.V. de F est un S.E.V. de E.
En pratique :
– Pour montrer qu’une application f : E → F est linéaire (ce qui est
assez facile),
-p
i) on montre que f vérifie la définition,
ii) ou on montre que f est une somme, une combinaison linéaire ou une
ari
composée d’applications linéaires.
– Pour montrer qu’une application f : E → F n’est pas linéaire (ce qui
est plus compliqué), on montre, par ordre croissant de difficulté,
i) soit que f (0E ) 6= 0F ,
ii) soit qu’il existe x ∈ E tel que −f (x) 6= f (−x),
bk
par :
Proposition 2.3
ww
16
m
2. Le noyau de l’application linéaire f : E → F est un sous-espace vecto-
riel de E.
co
3. f est injective ssi Ker(f ) = {0}.
4. f est surjective ssi Im(f ) = F .
ro.
du rang
2.4.1 Le théorème du rang et ses applications
On suppose à partir de maintenant que l’espace de départ E est de
-p
dimension finie. Soit f : E → F une application linéaire.
Proposition 2.4 Si {e1 , . . . , ek } est une famille génératrice de E, alors {f (e1 ), . . . , f (ek )}
est une famille génératrice de Im(f ).
ari
Remarques :
1. En particulier, l’image de f est de dimension finie.
2. Cette proposition fournit une méthode pour construire une base de
bk
l’image de f .
Remarques :
17
m
1. Le théorème du rang s’écrit donc aussi rg(f )+dim(Ker(f )) = dim(E).
En particulier, le rang de f est toujours inférieur ou égal à la dimension
co
de E.
2. Si, de plus, F est de dimension finie, on a rg(f ) ≤ dim(F ). En effet,
Im(f ) est un S.E.V. de F et donc sa dimension (égale à rg(f ) par
définition) est inférieure ou égale à celle de F .
ro.
3. Si F est de dimension finie, alors f est surjective si et seulement si
rg(f ) = dim(F ). En effet, Im(f ) est un S.E.V. de F , et donc Im(f ) =
F si et seulement si dim(Im(f )) = dim(F ).
-p
une application linéaire de E dans F .
1. L’application linéaire f est injective si et seulement si rg(f ) = dim(E).
Alors on a
dim(E) ≤ dim(F ) .
ari
2. Si f est surjective, alors F est de dimension finie et
dim(F ) ≤ dim(E) .
dim(F ) = dim(E) .
2.5 Projections
Soit E un R-e.v. et E1 , E2 deux sev supplémentaires de E (i.e. E =
ww
18
m
Définition 2.5 Soit x ∈ E et (x1 , x2 ) ∈ E1 × E2 tel que x1 + x2 = x. Posons
x1 = p(x), p s’appelle la projection sur E1 dirigée par E2 .
co
Proposition 2.5 Soit p la projection sur E1 dirigée par E2 , on a :
1. p ∈ L(E),
2. Im(p) = E1 et Ker(p) = E2 ,
ro.
3. p ◦ p = p.
-p
2. p est la projection sur Im(p) dirigée par Ker(p).
19
m
co
Chapitre 3
ro.
Représentation matricielle
3.1 -p
Caractérisation d’une application linéaire
par l’image d’une base
ari
La proposition suivante explique pourquoi il va être possible de caractériser
une application linéaire par une matrice.
Remarques :
– Une application linéaire d’un espace vectoriel de dimension finie E dans
un espace vectoriel F est donc entièrement déterminée par la donnée
de l’image d’une base quelconque.
– Cette proposition s’utilise le plus souvent sous la forme : si E est de
al
20
m
Représentation des applications linéaires par des matrices
Définition 3.1 Soit f ∈ L(E, F ). Pour tout j ∈ {1, . . . , n}, on note (a1j , . . . , apj )
co
les coordonnées du vecteur f (ej ) dans la base C :
p
X
∀j ∈ {1, . . . , n}, f (ej ) = aij fi .
i=1
ro.
On appelle matrice représentant f dans les bases B et C la matrice de
terme général aij :
a11 . . . a1n
. . . . .
Remarques :
MCB (f ) =
-p
. . . . .
ap1 . . . apn
ari
– Attention à l’ordre dans l’écriture MCB (f ) !
– Cette matrice a n colonnes et p lignes : MCB (f ) ∈ Mp,n (R).
– La j−ième colonne de la matrice est formée des composantes du vecteur
f (ej ) dans la base C.
bk
A = MCB (fA ) .
21
m
3.2.1 Liens avec le calcul matriciel
Addition de matrices et multiplication par un scalaire
co
Soient f et g deux éléments de L(E, F ), λ un élément de R.
Proposition 3.2
1. MCB (f + g) = MCB (f ) + MCB (g).
ro.
2. MCB (λf ) = λMCB (f ).
En particulier, l’application Φ de L(E, F ) dans Mp,n (R) qui à toute appli-
cation linéaire f fait correspondre la matrice MCB (f ) est elle-même une
application linéaire.
-p
Théorème 3.1 L’application linéaire Φ de L(E, F ) dans Mp,n (R) qui à toute
application linéaire f fait correspondre la matrice MCB (f ) est un isomor-
phisme de L(E, F ) sur Mp,n (R).
Corollaire 3.1 A toute matrice A de Mn,p (R), on peut associer une et une
ari
seule application linéaire f ∈ L(Rp , Rn ) dont A est la matrice dans les bases
canoniques de Rp et Rn .
Comme Mn,p (R) est de dimension np, nous pouvons également déduire du
théorème du rang et de la proposition 3.1 la dimension de L(E, F ) :
bk
22
m
3.2.3 Ecriture matricielle
Soient E et F deux espaces vectoriels de dimension finie, B et C des bases
co
de E et F . Soit f un élément de L(E, F ), x un élément de E.
On note A la matrice MCB (f ), X la matrice colonne des coordonnées de x
dans la base B et Y la matrice colonne des coordonnées de f (x) dans la base
C.
ro.
Proposition 3.4 On a Y = AX.
la matrice A.
-p
Soient A une matrice de Mn,p (R) et (c1 , . . . , cp ) les matrices colonnes de
rg(A) = rg{c1 , . . . , cn } .
On peut faire le lien suivant entre le rang d’une matrice et le rang d’une
bk
application linéaire :
rg(f ) = rg(MCB (f )) .
Rn .
ww
23
m
3.4 Changement de base
co
3.4.1 Action d’un changement de base sur les compo-
santes d’un vecteur
Soient E un espace vectoriel de dimension n sur R, B = {e1 , . . . , en } et
B 0 = {e01 , . . . , e0n } deux bases de E. Soient (p1j , . . . , pnj ) les coordonnées du
ro.
vecteur e0j dans la base B, c’est-à-dire
n
X
∀j ∈ {1, . . . , n}, e0j = pij ei .
i=1
-p
Définition 3.3 (Matrice de passage)
On appelle matrice de passage de B à B 0 la matrice P = (pij )1≤i,j≤n dont
les colonnes sont les coordonnées des vecteurs de la base B 0 exprimées dans
la base B.
ari
Cette matrice est notée PBB 0 .
à B :
(PBB 0 )−1 = PB 0 B
XB = PBB 0 XB0 0
anciennes.
ww
24
m
3.4.2 Action d’un changement de base sur la matrice
représentant une application linéaire
co
Soient E un espace vectoriel de dimension n sur R, B et B 0 deux bases de E
et P la matrice de passage de B à B 0 .
Soient F un espace vectoriel de dimension p sur R, C et C 0 deux bases de F
et Q la matrice de passage de C à C 0 .
ro.
Théorème 3.4 Si f est une application linéaire de E dans F représentée
par la matrice A dans les bases B et C et par A0 dans les bases B 0 et C 0 , on
a la relation :
A0 = Q−1 AP
Remarque :
-p
Dans le cas particulier où f est un endomorphisme de E, si A (resp. A0 ) est
la matrice représentant f dans la base B (resp. B 0 ), alors A0 = P −1 AP .
ari
3.4.3 Matrices semblables
Définition 3.4 On dit que deux matrices carrées A et A0 d’ordre n sont
semblables s’il existe P matrice carrée d’ordre n inversible telle que A 0 =
bk
P −1 AP .
25
m
est linéaire. De plus, la matrice de fA dans les bases canoniques de Mp,1 (R)
et Mn,1 (R) est A. Soit S l’ensemble des solutions du problème AX = b :
co
S = {X ∈ Mp,1 (R) | AX = b}
ro.
système homogène AY = 0, c’est-à-dire un élément du noyau de f A . Autre-
ment dit,
Corollaire 3.4
-p
On suppose maintenant que n = p. Alors il y a équivalence entre :
1. Il existe b ∈ Mn,1 (R) pour lequel l’équation AX = b a au plus une
solution.
ari
2. Pour toute donnée b ∈ Mn,1 (R) l’équation AX = b a au moins une
solution.
3. Pour toute donnée b ∈ Mn,1 (R) l’équation AX = b a une et une seule
solution.
bk
4. A est inversible.
Remarques :
– Dans ce cas, la solution est unique et égale à A−1 b.
– Bien noter le lien très fort entre l’existence et l’unicité des solutions.
al 3a
w.
ww
26
m
co
Chapitre 4
ro.
Déterminants
-p
L’objet de ce chapitre est la construction d’une application de Mn (R) (ou de
Mn (C)) dans R (ou dans C), appelée déterminant, qui ne s’annule que si
la matrice n’est pas inversible :
ari
det(A) = 0 ⇔ A n’est pas inversible.
Dans tout ce chapitre, on travaille dans le cas réel, le cas complexe pouvant
être traité de façon identique.
bk
application f de E m dans R :
(X1 , . . . , Xm ) → f (X1 , . . . , Xm )
telle que :
al
f (X1 , . . . , Xi , . . . , Xj , . . . , Xm ) = −f (X1 , . . . , Xj , . . . , Xi , . . . , Xm ) .
ww
27
m
Lemme 4.1 Soient f : E m → R une forme m-linéaire alternée et (X1 , . . . , Xm )
un m−uplet de E m . S’il existe deux indices i 6= j tels que Xi = Xj , alors
co
f (X1 , . . . , Xm ) = 0.
ro.
X
f (X1 , . . . , Xi + λj Xj , . . . , Xm ) = f (X1 , . . . , Xi , . . . , Xm )
j6=i
4.2 Déterminants -p
une famille liée, alors f (X1 , . . . , Xm ) = 0.
ari
4.2.1 Définition et propriétés admises
Soit A ∈ Mn (R) de terme général (aij ). On note A∗ij la sous-matrice de A
d’ordre (n − 1) obtenue en enlevant à A sa ième ligne et sa jème colonne.
bk
n
X
det(A) = (−1)i+k aik det(A∗ik )
i=1
n
X
det(A) = (−1)k+j akj det(A∗kj )
j=1
w.
1. si n = 2, det = ad − bc.
c d
28
m
a11 a12 a13
2. si n = 3, det a21 a22 a23 = (développement suivant la 3ième
co
a31 a32 a33
colonne)
1+3
a21 a22 2+3
a11 a12 3+3
a11 a12
(−1) a13 +(−1) a23
+(−1) a33
.
a31 a32 a31 a32 a21 a22
ro.
3. Si O est la matrice nulle de Mn (R), det(O) = 0.
4. Si In est la matrice identité de Mn (R), det(In ) = 1.
Notation : A un n−uplet (X1 , . . . , Xn ) de Rn , on associe la matrice M at(X1 , . . . , Xn )
appartenant à Mn (R) dont les colonnes sont constituées des vecteurs X1 , . . . , Xn .
-p
Théorème 4.2 L’application de (Rn )n dans R qui à un n−uplet (X1 , . . . , Xn )
de Rn associe le scalaire det(M at(X1 , . . . , Xn )) est une forme n-linéaire al-
ternée.
ari
Toute forme n-linéaire alternée de (Rn )n dans R est proportionnelle à
cette application.
La démonstration de cet énoncé est trop technique pour être donnée ici. On
admet également que le déterminant d’une matrice est égal au déterminant
bk
de sa transposée :
Proposition 4.2
29
m
A est inversible ⇔ det(A) 6= 0
co
Nous avons démontré en passant la proposition suivante :
ro.
1
det(A−1 ) = .
det(A)
Corollaire 4.1 -p
Comme le déterminant est une forme n-linéaire alternée, on a :
culer :
30
m
co
Chapitre 5
ro.
Diagonalisation des matrices et
des endomorphismes
-p
Dans tout le chapitre K désigne R ou C.
ari
5.1 Valeurs propres et vecteurs propres d’un
endomorphisme
bk
Donc Ker(f − λidE ) n’est pas réduit au vecteur nul, ce qui signifie que λ est
une valeur propre de f .
31
m
Définition 5.3 (Espace propre)
Si λ est une valeur propre de f , on appelle sous-espace propre de f associé
co
à λ le sous-espace vectoriel V (λ) de E défini par
ro.
Proposition 5.1 (Propriétés élémentaires)
1. Un scalaire λ est valeur propre de f ⇔ dimKer(f − λidE ) ≥ 1.
2. Un vecteur x ∈ E est vecteur propre de f associé à la valeur propre λ
⇔ x 6= 0 et x ∈ V (λ).
V (λ2 ) = {0E }. -p
3. Si λ1 et λ2 sont deux valeurs propres distinctes de f , alors V (λ1 ) ∩
Dans le cas particulier (et qui nous intéresse le plus) de la dimension finie,
on a les propriétés supplémentaires suivantes :
bk
matrice
Soit n ∈ N∗ et A une matrice carrée d’ordre n à coefficients dans K.
w.
32
m
Lemme 5.1 λ ∈ K est valeur propre de A, si et seulement si, det(A − λIn ) = 0.
co
Proposition 5.4
Si A est la matrice représentant un endomorphisme f d’un espace vectoriel
E dans une base B alors :
– λ ∈ K est valeur propre de A ⇔ λ est valeur propre de f .
– Un vecteur x est vecteur propre de f ⇔ la matrice X représentant x
ro.
dans la base B est vecteur propre de A.
Proposition 5.5
1. Si A est une matrice triangulaire, les valeurs propres de A sont les
éléments diagonaux de A.
5.3
-p
2. Si A et B sont semblables, alors A et B ont mêmes valeurs propres.
33
m
Proposition 5.6 Les assertions suivantes sont équivalentes :
1. f est diagonalisable
co
2. Si λ1 , . . . , λk sont les valeurs propres distinctes de f , alors V (λ1 )+· · ·+
V (λk ) = E.
3. Si λ1 , . . . , λk sont les valeurs propres distinctes de f , alors
k
ro.
X
dim(V (λi )) = dim(E) .
i=1
Remarques :
– Il existe des matrices réelles et complexes qui ne sont diagonalisables,
ni dans R, ni dans
C.
1 1
Exemple : .
0 1
al
– Il existe des matrices qui sont diagonalisables dans C, mais pas dans
R.
1 1
Exemple :
w.
−1 1
Théorème 5.2 Soit f un endomorphisme de E représenté par A dans une
base B de E. Alors
f est diagonalisable ⇔ A est diagonalisable.
ww
34
m
5.4 Polynôme caractéristique
co
5.4.1 Le polynôme caractéristique
Soient E un espace vectoriel de dimension finie n et f ∈ L(E). Soit A la
matrice représentant f dans une base arbitraire B de E. Si λ est un scalaire,
nous avons déjà démontré l’équivalences entre les assertions suivantes :
ro.
1. λ est valeur propre de f .
2. f − λidE est une application linéaire non bijective.
3. λ est une valeur propre de A
4. A − λIn est une matrice non inversible.
5. det(A − λIn ) = 0.
Ceci conduit à la définition :
-p
Définition 5.7 On appelle polynôme caractéristique d’une matrice A = (a ij )n
ari
le déterminant de la matrice A − λIn . On note
Proposition 5.8
1. A et sa transposée AT ont même polynôme caractéristique.
2. Deux matrices semblables ont même polynôme caractéristique.
al
35
m
– On appelle multiplicité algébrique de la valeur propre λ, la multipli-
cité de λ comme racine du polynôme caractéristique de f , c’est-à-dire
co
le plus grand entier k tel que (X −λ)k divise le polynôme caractéristique
Pf (X).
– On appelle multiplicité géométrique de la valeur propre λ, la di-
mension du sous-espace propre V (λ).
ro.
Proposition 5.9 Soit f ∈ L(E) et λ une valeur propre de f . Alors la mul-
tiplicité géométrique de λ est inférieure ou égale à la multiplicité algébrique
de λ.
En particulier, si λ est racine simple de Pf la dimension de V (λ) est égale
à 1.
-p
Théorème 5.4 (C.N.S. de diagonalisation)
Pour qu’un endomorphisme f ∈ L(E) soit diagonalisable, il faut et il suffit
que son polynôme caractéristique ait n racines dans K (distinctes ou confon-
ari
dues) et que l’ordre de multiplicité algébrique de toute valeur propre de f soit
égal à l’ordre de multiplicité géométrique de cette valeur propre.
En pratique : Si A ∈ Mn (K),
– On calcule les valeurs propres de A en résolvant l’équation PA (λ) =
bk
associés à λ. Cette famille sera alors une base de V (λ). Mais ce n’est pas
toujours possible : si dim(V (λ)) < r, alors A n’est pas diagonalisable.
Dans toute la suite, K désigne R ou C.
w.
36
m
De plus, D k est une matrice diagonale dont les coefficients diagonaux s’ob-
tiennent en élevant ceux de D à la puissance k :
co
k
λ1 0 . . . 0 λ1 0 . . . 0
.. ..
0 λ2 0 . 0 λk2 0 .
k
si D = . , alors D = .
.. . . . . . . 0 .. . . . . . . 0
ro.
0 . . . 0 λn 0 . . . 0 λkn
-p
ari
bk
al 3a
w.
ww
37