Vous êtes sur la page 1sur 43

ALGÈBRE LINÉAIRE

SUPINFO AQUITAINE

année 2007-2008
2

Algèbre linéaire Supinfo Aquitaine


avant-propos

Vous trouverez dans ce document le cours des modules 1 et 3 d'algèbre


linéaire, le module 2 traitant des systèmes d'équations linéaires pouvant rester
inchangé.

Je me suis eorcé d'écrire un cours de mathématiques - sans doute très


perfectible - dont l'objet est de rendre intelligible aux étudiants le sujet qu'il
traite, intelligible au sens où R. Godement pouvait l'entendre. Je me permets
de le citer dans la préface de son Cours d'algèbre : "Beaucoup de gens et
notamment la plupart de ceux qui se bornent à utiliser les Mathématiques,
prétendent que lorsqu'on écrit pour les débutants il est inutile, ou même nui-
sible, d'essayer de faire preuve d'une trop grande rigueur, de tout démontrer,
d'introduire des notions trop générales, d'utiliser une terminologie strictement
dénie et dépourvue de discours euris. S'ils avaient raison, cela voudrait dire
que, contrairement aux mathématiciens professionnels, et au bon sens, les débu-
tants comprennent d'autant plus facilement un texte mathématique qu'il est
plus mal rédigé. Les latinistes professionnels, c'est leur métier, comprennent
les inscriptions tronquées qu'on extrait tous les jours du sous-sol de l'Italie,
mais il n'est pas encore venu à l'idée d'aucun professeur de Latin de les utili-
ser pour enseigner cette langue aux débutants - on préfère avoir recours à des
grammaires bien écrites..."
J'ai essayé de suivre cette directive en démontrant un maximum de proprié-
tés ou théorèmes et c'est aussi pourquoi l'ensemble de ce cours est basé sur les
espaces vectoriels sur un corps commutatif K - ce qui ne complique en rien les
démonstrations - même si nos représentations mentales et les exercices propo-
sés se connent à l'ensemble des réels. An de ne pas surcharger ce cours, j'ai
été toutefois contraint à en admettre quelques points, notamment le théorème
de la base incomplète et la dénition du déterminant et les propriétés issues de
celle-ci - qui demande un investissement en temps pour aborder les notions de
permutations et de signature d'une permutation que nous n'avons pas à notre
disposition-.
Ce cours est évidemment à la disposition des étudiants et est une base de

i
ii Chapitre 0 avant-propos

travail pour les professeurs. Il ne saurait toutefois -je crois - être enseigné dans
son intégralité, faute de temps. Chaque professeur choisira donc les points sur
lesquels il est nécessaire de s'arrêter, l'objectif nal étant que les étudiants aient
une idée globale et cohérente du sujet, puissent résoudre les exercices demandés
sans y voir une accumulation de "recettes".
Je cite à titre d'information le site de l'université en ligne dans lequel il est
possible de piocher des exemples ou des exercices et vers lequel nous pouvons
diriger les étudiants qui veulent approfondir leurs connaissances en algèbre li-
néaire ( Attention toutefois car la majorité des exercices proposés dépasse le
niveau demandé aux étudiants de supinfo). L'adresse est la suivante :
http ://www.uel.education.fr/consultation/reference/index.htm

Si vous avez des exercices à proposer, des remarques ou si vous constatez


des erreurs, vous pouvez me contacter à Ludovic.DUCHENE@supinfo.com

Merci de votre contribution

Ludovic Duchêne

Algèbre linéaire Supinfo Aquitaine


Table des matières

avant-propos i
1 Espaces vectoriels et applications linéaires 1
1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 applications linéaires . . . . . . . . . . . . . . . . . . . . 3
1.1.3 base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Applications linéaires - Matrices . . . . . . . . . . . . . . . . . . 5
1.3 Corrections des exercices . . . . . . . . . . . . . . . . . . . . . . 7

2 Matrices 11
2.1 Opérations élémentaires sur les matrices . . . . . . . . . . . . . 11
2.1.1 addition de matrices et multiplication par un réel . . . . 11
2.1.2 multiplication de matrices . . . . . . . . . . . . . . . . . 12
2.1.3 transposée d'une matrice . . . . . . . . . . . . . . . . . . 14
2.1.4 inverse d'une matrice . . . . . . . . . . . . . . . . . . . . 14
2.1.5 Structure des espaces de matrices . . . . . . . . . . . . . 15
2.2 Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Construction de la notion de déterminant . . . . . . . . 16
2.2.2 calcul explicite du déterminant d'une matrice . . . . . . 19
2.2.3 Propriétés du déterminant . . . . . . . . . . . . . . . . . 22
2.2.4 Matrices particulières et déterminant . . . . . . . . . . . 22
2.3 Inversion d'une matrice . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.1 résolution d'un système . . . . . . . . . . . . . . . . . . . 23
2.3.2 formule de l'inverse . . . . . . . . . . . . . . . . . . . . . 24
2.3.3 propriétés de l'inverse . . . . . . . . . . . . . . . . . . . . 25

3 Diagonalisation des matrices carrées 27


3.1 Matrice de Passage . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.2 changement de base d'une application linéaire . . . . . . 29

iii
iv Chapitre 0 avant-propos

3.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2.1 Eléments propres d'une matrice carrée . . . . . . . . . 30
3.2.2 Conditions de la diagonalisation . . . . . . . . . . . . . 32
3.3 Méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3.1 Méthode générale : les diérentes étapes de la diagona-
lisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3.2 Méthode générale : exemples . . . . . . . . . . . . . . . 34
3.3.3 Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . 36

Algèbre linéaire Supinfo Aquitaine


Chapitre 1

Espaces vectoriels et applications


linéaires

introduction

Il est habituel en géométrie de manipuler des vecteurs 1 . Les opérations


dénies sur les vecteurs possèdent certaines propriétés que l'on retrouvent sur
d'autres ensembles. C'est cette structure commune appelée espace vectoriel et
les applications qui conservent cette structure, appelées applications linéaires,
que l'on étudiera dans la première partie de ce chapitre. Dans un second temps,
nous étudierons plus particulièrement les applications entre espaces vectoriels
de dimensions nies pour lesquels nous établirons une correspondance univoque
avec un tableau de nombres appelé matrice. Les opérations sur ces matrices
découleront alors directement des opérations des applications linéaires.
La théorie des espaces vectoriels tire donc son vocabulaire de la géométrie
de part ses origines. Il sera de toute facon commode d'user de cette analogie
pour visualiser les notions développées dans ce cours.

1 On les dénis comme classe d'équivalence de bipoint où la relation d'équivalence est


dénie par : Soient A,B ,C ,D quatre points du plan, alors (A, B)R(C, D) ⇔ ABDC est un
parallélogramme (cf PS1-théorie des ensembles ).

1
2 Chapitre 1 Espaces vectoriels et applications linéaires

1.1 Espaces vectoriels

1.1.1 Dénition
Dénition 1.1. Un ensemble E est un espace vectoriel sur un corps commu-
2
tatif K (on dit que E est un espace vectoriel sur K ou que E est un K-ev )
si on peut dénir sur les éléments de E (appelés vecteurs) deux opérations :
1. Une interne, l'addition (notée +) associative, commutative possédant un
élément neutre et par rapport à laquelle chaque élément de E possède un
symétrique.
(~u + ~v ) + w~ = ~u + (~v + w)
~
~u + ~v = ~v + ~u
∃~0 ∈ E/~0 + ~u = ~u
∀~u ∈ E, ∃~v ∈ E/~u + ~v = ~0
2. Une externe, la multiplication par un élément de K (scalaire) ayant les
propriétés suivantes :
α(~u + ~v ) = α~u + α~v
(α + β)~u = α~u + β~u
(αβ)~u = α(β~u)
1 × ~u = ~u ou 1 est l' élément neutre pour la multiplication dans K.

La notation vectorielle a été adoptée ici pour faciliter la compréhension.


Pour des raisons de paresse typographique ou tout simplement par oubli, l'au-
teur l'abandonnera parfois dans la suite de ce document.

Exercice 1. Montrer que :


 L'ensemble des vecteurs de la géométrie dans l'espace est un R-ev
 C est un R-ev
 L'ensemble des fonctions dénies sur un intervalle I de K à valeur dans
K est un espace vectoriel sur K
 L'ensemble des fonctions polynomiales de K dans K est un espace vecto-
riel sur K

Dénition 1.2. Soit E un espace vectoriel sur K. Un sous-ensemble F de


E est un sous-espace vectoriel de E si c'est un espace vectoriel pour les deux
opérations induites de E sur F .

On a alors
2 Uncorps est lui-même un ensemble muni d'une structure que nous n'aborderons pas
dans ce cours : Il nous sura de savoir que l'ensemble R des réels est un corps commutatif

Algèbre linéaire Supinfo Aquitaine


Espaces vectoriels 3

Théorème 1. F est un sous-espace vectoriel de E si et seulement si


∀x, y ∈ F, ∀λ, µ ∈ K, λx + µy ∈ F

Démonstration. si F est un espace vectoriel pour les deux opérations induites


de E alors ∀x, y ∈ F, ∀λ, µ ∈ K, λx + µy ∈ F .
Réciproquement, si ∀x, y ∈ F, ∀λ, µ ∈ K, λx + µy ∈ F , on peut dénir
deux opérations - appelées addition et multiplication par un scalaire - sur F
en prenant - respectivement - λ = µ = 1 et λ quelconque, µ = 0. Il nous
reste à démontrer que F muni de ces deux opérations est un espace vectoriel.
Comme E est un espace vectoriel, les propriétés de E restent vraies dans F .
Il nous reste donc juste à démontrer que ~0 ∈ F -il sut pour cela de prendre
λ = µ = 0- et que ∀~u ∈ F, ∃~v ∈ F, ~u + ~v = ~0 ce qui est également trivial
puisque λ = −1, µ = 0 implique que −~u ∈ F . c.q.f.d.

Exercice 2. Montrer que :


 L'ensemble des vecteurs de la géométrie plane est un sous-espace vectoriel
de l'ensemble des vecteurs de la géométrie dans l'espace.
 L'ensemble des fonctions dénies et continues sur un intervalle I de K
à valeur dans K est un sous-espace vectoriel de l'ensemble des fonctions
dénies sur un intervalle I de K à valeur dans K
 L'ensemble des fonctions polynomiales de K dans K de degré inférieur ou
égal à n (n ∈ N) est un sous-espace vectoriel de l'ensemble des fonctions
polynomiales de K dans K

1.1.2 applications linéaires


Dénition 1.3. Soient E et F deux espaces vectoriels sur K, une application
linéaire de E dans F (on dit encore homomorphisme de E dans F ) est une
application f de E dans F telle que :
f (x + y) = f (x) + f (y)
f (λx) = λf (x)
(Si E = F on dit que f est un endomorphisme de E . Ce vocabulaire n'est pas
à connaitre ; il peut toutefois vous servir à briller dans les soirées mondaines)

Exercice 3. Montrer que :


1. dans l'espace vectoriel des vecteurs du plan, la projection sur une droite
parallèlement à une autre est une application linéaire.
2. la rotation et l'homothétie sont également des applications linéaires
3. si E est l'espace vectoriel des fonctions dérivables sur K et si F est l'es-
pace vectoriel des fonctions dénies sur K alors l'application D qui à la
fonction f associe sa dérivée est linéaire.

Supinfo Aquitaine Algèbre linéaire


4 Chapitre 1 Espaces vectoriels et applications linéaires

1.1.3 base
La notion de base est fondamentale dans la théorie des espaces vectoriels.
C'est une notion assez facile à appréhender dans la mesure où on l'utilise en
géométrie analytique au lycée . Nous aborderons dans cette partie sa dénition
mathématique.

Soient x1 , x2 , ..., xn des éléments de E .

Dénition 1.4. La famille (x1 ,P


x2 , ..., xn ) engendre E si tout élément x de E
peut s'écrire sous la forme x = ni=1 αi xi , αi ∈ K. La famille (x1 , x2 , ..., xn )
est dite alors génératrice.
Dénition 1.5. La famille (x1 , x2 , ...,P
xn ) est dite libre si cette décomposition
3
est unique, ce qui équivaut à (x = ni=1 αi xi = 0 ⇔ ∀i ∈ [1, ..., n], αi = 0)
On dit alors que x1 , x2 , ..., xn sont linéairement indépendants. Dans le cas
contraire, on dit que les vecteurs x1 , x2 , ..., xn sont liés.
Dénition 1.6. Une famille libre et génératrice est appelée une base de E .
Dénition 1.7. E est dit de dimension nie s'il possède une famille généra-
trice nie
Le lemme suivant est basé sur le théorème "de la base incomplète" que l'on
retrouvera dans tous les manuels traitant des espaces vectoriels.

Lemme (admis). En dimension nie n, pour montrer qu'une famille de n


éléments est une base il sut de montrer qu'elle est génératrice ou libre.
On en déduit :

Théorème 2. Si E est un espace vectoriel de dimension nie, toutes les bases


possèdent le même nombre d'éléments.
On a alors :
3

Pn
Démonstration.
Pn  Si (x P= i=1 αi xi = 0 ⇔ ∀i ∈ [1, ..., n], αi = 0) alors soient
n
x = Pi=1 αi xi et x = i=1 λi xi deux décompositions de x dans la base (x1 , x2 , ..., xn )
n
alors i=1 (αi − λi )xi = 0 donc ∀i ∈ [1, ..., n], αi = λi d'où l'unicité.
Pn
 Réciproquement l'unicité P de la décomposition implique que (x = i=1 αi xi = 0 ⇔ ∀i ∈
n
[1, ..., n], αi = 0) puisque i=1 0xi = 0.
c.q.f.d.

Algèbre linéaire Supinfo Aquitaine


Applications linéaires - Matrices 5

Dénition 1.8. Si E est de dimension nie, on appelle dimension de E notée


dim(E) le nombre d'éléments d'une base de E .

Exercice 4. Montrer que :


 dans Kn , la famille (ei )1≤i≤n où ei = (0, ...0, 1, 0, ..., 0) (le 1 étant la ième
composante)est une base.
 la famille (1, X, X 2 , ..., X n ) est une base de Kn [X] espace vectoriel des
polynômes de degré inférieur ou égal à n.

1.2 Applications linéaires - Matrices

Soient E ,F deux K-ev de dimensions nies de bases respectives (e1 , e2 , ..., en )


et (f1 , f2 , ..., fm ) et soit f une application linéaire de E dans F . P
Tout élément x de E s'écrit de manière Pn unique sousPla forme x = nj=1 xj ej et
donc comme f est linéaire f (x) = f ( j=1 xj ej ) = nj=1 xj f (ej )
L'application f est donc entièrement détérminée par la donnée des vecteurs
f (ej ) dans la base (f1 , f2 , ..., fm ). Il est commode de stocker dans un tableau
rectangulaire appelé matrice les composantes des vecteurs f (ej ) dans la base
(f1 , f2 , ..., fm ).
Si on a f (e1 ) = a11 f1 + · · · + am1 fm
f (e2 ) = a12 f1 + · · · + am2 fm
.. .. ..
. . .
f (en ) = a1n f1 + · · · + amn fm
alors

Dénition 1.9.  
a11 · · · a1n
A =  ... .. 
. 

aij
am1 · · · amn
est la matrice de f dans les bases (e1 , e2 , ..., en ) et (f1 , f2 , ..., fm ).
Cette matrice a m lignes et n colonnes ; on dit qu'elle est de taile (m, n)

Il est commode de se la représenter comme


(e1 ) · · ·
f f (ei ) · · · f (en )
a11 . . . . . . a1n f1
.. .. ..
. ...... . .
 
 
 .. .. 
A=  . aij .  fj
.. .. ..
 
. . .
 
 ...... 
am1 . . . . . . amn fm

Supinfo Aquitaine Algèbre linéaire


6 Chapitre 1 Espaces vectoriels et applications linéaires

Remarque 1. Si on change de bases, on change aussi la matrice de f .

Dénition 1.10.  Une matrice de taille (1, n) est dite matrice ligne. Elle
est de la forme (a1 , a2 , ..., an ).
 Une matrice de taille (n, 1) est  ditematrice colonne ou encore vecteur
a1
 a2 
colonne . Elle est de la forme  .. 
 
 . 
a3
 Une matrice de taille (n, n) est dite matrice carrée d'ordre n.

Matrice particulière 1. L'application linéaire nulle de E dans E , espace vec-


toriel de dimension nie, qui a tout élément de E associe le vecteur nul, a pour
matrice
 
0 0 ... 0 0
..
 0 0 . 0 
 
 . . . . . .. 
0=  .. . . . .  appelée matrice nulle.
. . 
..
.
 
 0 0 0 
0 0 ... 0 0

Matrice particulière 2. L'application linéaire identité de E dans E , espace


vectoriel
 de dimension nie
 muni de la même base a pour matrice
1 0 ... 0 0
..
 0 1 . 0 
 
 . . . . .. 
Id =  .. . . . . . .  appelée matrice unité ou matrice identité.
. 
..
. 1
 
 0 0 
0 0 ... 0 1

Exercice 5. Soit E le plan vectoriel muni d'une base orthonormée.


Quelle est la matrice de l'homothétie vectorielle de rapport λ dans E ?
Quelle est la matrice de la rotation vectorielle d'angle θ dans E ?

Exercice 6. Soient R3 et R2 munis des bases habituelles e1 = (1, 0, 0),


e2 = (0, 1, 0), e3 = (0, 0, 1) et f1 = (1, 0), f2 = (0, 1). Soit ϕ de R3 dans
R2 dénie par ϕ(x1 , x2 , x3 ) = (ax1 , bx2 ) ( a, b ∈ R) Quelle est la matrice de ϕ ?

Exercice 7. On considère l'espace des polynômes de degré inférieur ou égal


2 3 n
à n. On munit cet espace de la base (1, x, x2! , x3! , ..., xn! ). Soit D l'opérateur
Dérivation. Quelle est la matrice de D ?

Algèbre linéaire Supinfo Aquitaine


Corrections des exercices 7

1.3 Corrections des exercices

Solution 1. Cela ressort directement des propriétés bien connues des vecteurs,
des nombres complexes et des fonctions.
Solution 2. Pour les mêmes raisons, je laisse au lecteur le soin de s'en
convaincre.
Solution 3. 1. Soient D et ∆ deux droites du plan et soit p la projection
sur D parallélement à ∆. Soient enn ~v et v~0 deux vecteurs du plan et
λ ∈ K.

A A
A A
A ∆ A ∆
A #
# A
λ~v
* A
~v + w~#  w
# A
 A ~ A
~v

* A # 
#
* A
 A #~ v A
 - - A 
# - - A
D p(~v ) p(λ~v ) D p(~v ) p(~v + w)
~

Fig. 1.1  p(λ~v ) = λp(~v ) et ~ = p(~v + w)


p(~v ) + p(w) ~

Donc d'après le théorème de Thales, on a bien p(λ~v ) = λp(~v ) et il est


clair que p(~v ) + p(w) ~ = p(~v + w) ~ .
La projection est une application linéaire.
2. Le plus simple pour montrer que la rotation vectorielle r d'angle θ et
l'homothétie vectorielle h de rapport λ sont des applications linéaires est
de revenir à leur caractérisations en termes de nombres complexes :
si z , z 0 , z 00 et u, u0 , u00 sont les axes respectifs de ~v , v~0 = r(~v ) , v~00 = h(~v )
et ~u, u~0 = r(~u) et u~00 = h(~u) , on a les relations z 0 = eiθ z , z 00 = λz et
u0 = eiθ u, u00 = λu.
Et puisque eiθ z + eiθ u = eiθ (z + u) et ∀µ ∈ R, µeiθ z = eiθ (µz) alors
r(~v ) + r(~u) = r(~v + ~u) et µr(~v ) = r(µ~v ).
De même, puisque λ z + λ u = λ (z + u) et ∀µ ∈ R, µλ z = λ (µz) alors
h(~v ) + h(~u) = h(~v + ~u) et µh(~v ) = h(µ~v ).
Donc la rotation et l'homothétie vectorielle sont des applications linéaires.
3. Cela résulte directement des propriétés de la dérivation.
Solution 4.  Pour tout v = (a1 , ..., an ) ∈ Kn , v se décompose en
v = a1 e1 + · · · + an en donc (e1 , ..., en ) est une famille génératrice de
n vecteurs de Kn : c'est donc une base.

Supinfo Aquitaine Algèbre linéaire


8 Chapitre 1 Espaces vectoriels et applications linéaires

 Tout polynôme P de degré inférieur ou égal à n s'écrit sous la forme


P (X) = a0 + a1 X + a2 X 2 + · · · + an X n donc (a0 , ..., an ) est une famille
génératrice de n + 1 vecteurs de Kn [X].
Si P (X) = a0 + a1 X + a2 X 2 + · · · + an X n = 0 alors en prenant n + 1
valeurs diérentes pour X , on obtient un système de n + 1 équations à
n + 1 inconnues dont l'unique solution est a0 = 0, a1 = 0, ..., an = 0 donc
la famille (a0 , ..., an ) est libre.
On en déduit que (a0 , ..., an ) est une base de Kn [X].

Solution 5. Soit (O,~i, ~j) la base orthonormée de E .

 L'image des vecteurs ~i et ~j par l'homothétie vectorielle de rapport λ sont


les vecteurs λ~i et λ~j donc lamatricede l'homothétie vectorielle de rapport
λ 0
λ dans la base (O,~i, ~j) est
0 λ  
λ 0
Matrice particulière 3. La matrice  ..  est appelée ma-
.


0 λ
trice scalaire.
 L'image des vecteurs ~i et ~j par la rotation vectorielle d'angle θ sont les
vecteurs cosθ ~i + sinθ ~j et −sinθ ~i + cosθ ~j donc
 la matrice de 
la rotation
cosθ −sinθ
vectorielle d'angle θ dans la base (O,~i, ~j) est
sinθ cosθ
− sin θ~i + cos θ~j 6
cos θ~i + sin θ~j
]
J
J ~j
J 3
J θ 
J θ -
O ~i

Solution 6. ϕ(1, 0, 0) = (a,


 0) , ϕ(0, 
1, 0) = (0, b) et ϕ(0, 0, 1) = (0, 0)
a 0 0
La matrice de ϕ est donc
0 b 0

Solution 7. D(1, 0, ..., 0) = (0, ..., 0) car la dérivée d'une fonction constante
est nulle.
D(0, 1, ..., 0) = (1, 0, ..., 0) car la dérivée du polynômes P (x) = x est le poly-
2 3 n
nômes P 0 (x) = 1 ce qui s'exprime dans la base (1, x, x2! , x3! , ..., xn! ) par
P 0 = (1, 0, ..., 0).

Algèbre linéaire Supinfo Aquitaine


Corrections des exercices 9

k
De manière générale si P (x) = xk! i.e. P = (0, 0, ..., 1, 0, ..., 0) dans la base
(1, x, x2! , x3! , ..., xn! ), 1 étant la k ième composante alors P 0 (x) = (k−1)!
2 3 n xk−1
i.e.
ième
P = (0, 0, ..., 1, 0, ..., 0) , 1 étant la k − 1
0
composante. 
0 1 0 ... 0
. . .. 
 0 0 1 . . 

2 3 n
La matrice de D dans la base (1, x, x2! , x3! , ..., xn! ) est donc 
 .
. .. .. 
. . . 0 
 . ..
 
 .. . 1 

0 ... ... ... 0

Supinfo Aquitaine Algèbre linéaire


10 Chapitre 1 Espaces vectoriels et applications linéaires

Algèbre linéaire Supinfo Aquitaine


Chapitre 2

Matrices

2.1 Opérations élémentaires sur les matrices

Soient E , F et G trois espaces vectoriels sur K de bases respectives


e = (ej )1≤j≤n , f = (fi )1≤i≤m et g = (gk )1≤k≤p .

2.1.1 addition de matrices et multiplication par un réel


Théorème 3. Soit a et b deux applications linéaires de E dans F de matrices
respectives (ai,j )1≤i≤m et (bi,j )1≤i≤m et soit λ ∈ K , alors a + b a pour matrice
1≤j≤n 1≤j≤n
(ai,j + bi,j )1≤i≤m et λa a pour matrice (λai,j )1≤i≤m .
1≤j≤n 1≤j≤n

Démonstration. ∀i, 1 ≤ i ≤ m, on a (a + b)(ei ) = a(ei ) + b(ei ) = a1i f1 + .... +


ami fm + b1i f1 + .... + bmi fn = (a1i + b1i )f1 + .... + (ami + bmi )fm et λa(ei ) =
λ(a1i f1 + .... + ami fm ) = λa1i f1 + .... + λami fm donc les matrices respectives de
a + b et de λa sont (ai,j + bi,j )1≤i≤m et (λai,j )1≤i≤m . c.q.f.d.
1≤j≤n 1≤j≤n

Dénition 2.1. La somme de deux matrices A = (ai,j )1≤i≤m et B = (bi,j )1≤i≤m


1≤j≤n 1≤j≤n
de même taille est la matrice C = (ci,j )1≤i≤m de même taille où ci,j = ai,j + bi,j .
1≤j≤n
On note C = A + B

Dénition 2.2. Le produit de A = (ai,j )1≤i≤m par un scalaire λ est la matrice


1≤j≤n
D = (di,j )1≤i≤m de même taille où di,j = λai,j . On note D = λA
1≤j≤n

11
12 Chapitre 2 Matrices

Exemples.
       
1 1 3 0 2 4 1+0 1+2 3+4 1 3 7
+ = =
−1 0 2 1 −2 0 −1 + 1 0 − 2 2 + 0 0 −2 2
     
0 2 4 5×0 5×2 5×4 0 10 20
5× = =
1 −2 0 5 × 1 5 × (−2) 5 × 0 5 −10 0

2.1.2 multiplication de matrices


Théorème 4. Soit a et b deux applications linéaires respectivement de F dans
G et de E dans F de matrices respectives (ai,j ) 1≤i≤p et (bi,j )1≤i≤m alors la
1≤j≤m 1≤j≤n
composée a ◦ b est une application linéaire de E dans G et sa matrice C s'écrira
C = (ci,j )1≤i≤n où ci,j = m .
P
k=1 a b
i,k k,j
1≤j≤p

Démonstration. Pour tout j , 1 ≤ j ≤ n, on a :

(a ◦ b)(ej ) = a(b1j f1 + ... + bkj fk + ... + bmj fm )


= b1j a(f1 ) + ... + bkj a(fk ) + ... + bmj a(fm )
= b1j (a11 g1 + ... + ai1 gi + ... + ap1 gp )
+ ...
+ bkj (a1k g1 + ... + aik gi + ... + apk gp )
+ ...
+ bmj (a1m g1 + ... + aim gi + ... + apm gp )

LaPj ième composante du vecteur (a ◦ b)(ei ) dans la base g = (gk )1≤k≤p est
donc m k=1 aik bkj c.q.f.d.

a(f ) · · · a(fk ) · · · a(fm )  b(e1 ) · · · b(ej ) · · · b(en ) 


 1 b11 . . . b1j . . . a1n
a11 . . . a1k . . . a1m

g1 f1
.. .. .. .. . ..
. ............ . . . . . . . . . . . . .. .
   
 
.. ..
   
A=  ai1 aik aim  gi B= . . fk
   bkj 
.. .. .. .. .. ..
   
. ............ . . . ... ... ... . .
   
 
ap1 . . . apk . . . apm gp bm1 . . . bmj . . . bmn fm

Algèbre linéaire Supinfo Aquitaine


Opérations élémentaires sur les matrices 13

a11 . . . a1k . . . a1m b11 . . . 1 b1j . . . a1n


.. ... ... ... .. .. ... ... ... ..
. . . .
ai1 . . . apk . . . apm .. + ..
. bkj .
.. . . . . . . . . . .. .. ... ... ... ..
. . . .
#
ap1 . . . apk . . . apm bm1 . . . bmj . . . bmn

On obtient donc le coecient cij de la de la matrice C en eectuant le


produit de la iième ligne de A par la j ième colonne de B comme ci-dessus.

Dénition 2.3. Le produit de deux matrices A = (ai,j )1≤i≤m de taille (m, n) et


1≤j≤n
B = (bi,j )1≤i≤n de taille (n, p) est la matrice C = (ci,j )1≤i≤n de taille (n, p) où
P 1≤j≤p 1≤j≤p
ci,j = mk=1 aik bkj . On note C = AB

Exemples.  
  0 2  
1 1 3  1 0  1×0+1×1+3×2 1×2+1×0+3×3
=
−1 0 2 −1 × 0 + 0 × 1 + 2 × 2 −1 × 2 + 0 × 0 + 2 × 3
2 3  
7 11
=
4 4

Remarque 2.  le produit de deux matrices non nulles peut être nul.


    
1 1 −1 2 0 0
exemple : =
2 2 1 −2 0 0
 La multiplication des matrices n'est pas commutative.
         
1 0 2 3 2 3 2 3 1 0 2 0
exemple : = et =
0 0 0 0 0 0 0 0 0 0 0 0

propriétés 1. 1
soient X , Y , et Z trois matrices, et soit λ ∈ R alors :
 X(Y + Z) = XY + XZ (la multiplication est distributive par rapport à
l'addition).
 X(λY ) = λXY
1 Ces propriétés sont évidentes

Supinfo Aquitaine Algèbre linéaire


14 Chapitre 2 Matrices

2.1.3 transposée d'une matrice


Dénition 2.4. La transposée de la matrice A = (aij ) de taille (m, n) est la
matrice A = (aji ) de taille (n, m)
t

 
  1 4
Exemples. La matrice A de la forme 14 25 36 a pour transposée t A =  2 5 
3 6

Matrice particulière 4. Si A = t A alors la matrice A est dite symétrique.


 
a0 b c
Exemples. Une matrice A carrée d'ordre 3 symétrique est de la forme  b a1 d 
c d a2
où a0 , a1 , a2 , b, c, d ∈ K.
Cas particuliers de matrices symétriques : les matrices scalaires et l'identité .

propriétés 2. 2
Soient A et B ∈ Mnm (K) et soit λ ∈ K
 t
(A + B) = t A+ t B
 t
(AB) = t B t A
 t
(λA) = λ t A
 t t
( A) = A

2.1.4 inverse d'une matrice


Dénition 2.5.L'inverse d'une matrice A = (aij ) est une matrice B tel que
AB = BA = Id. On note A−1 l'inverse de A.

Remarque 3.  Une matrice A ne possède pas toujours d'inverse.

 l'inverse de la matrice Id est la matrice Id.


 
1 0
Exercice 8. Montrer que la matrice 1 0 ne possède pas d'inverse.
 
a b
Solution 8. Supposons que cette matrice admette la matrice c d ,
      
1 0 a b a b 1 0
a, b, c, d ∈ R comme inverse alors = =
1 0 c d a b 0 1
1 0
ce qui est impossible donc la matrice ne possède pas d'inverse.
1 0
2 La
seule propriété non évidente est la seconde où la diculté réside en la manipulation
des indices. Je laisse le soin au lecteur de mettre les mains dans le cambouis...

Algèbre linéaire Supinfo Aquitaine


Déterminant 15

propriétés 3.  Si A et B sont inversibles, alors AB est inversible et on


a : (AB)−1 = B −1 A−1 . 3
 Si A−1 est l'inverse de A, alors (A−1 )−1 = A. 4
 Si AC = BC et C inversible alors A = B .
Si CA = CB et C inversible alors A = B . 5
 si A inversible alors t A inversible et (t A)−1 = t (A−1 ). 6
 On en déduit que si A inversible et symétrique alors A−1 symétrique. 7

2.1.5 Structure des espaces de matrices


L'ensemble des matrices de taille (m, n) à coecient dans K muni de l'ad-
dition des matrices et de la multiplication par un réel est un espace vectoriel
sur K 8 . On le note Mm,n (K).
Lorsque m = n, on note Mn (K) l'espace vectoriel des matrices carrées d'ordre n.

2.2 Déterminant

Introduction
Comme il est souvent d'usage en mathématique quand une notion se dé-
gage de l'étude d'un problème, on la réinjecte au sein de la théorie où elle nous
semble parfois surgir ex-nihilo : le discours mathématique y gagne souvent en
clarté ce qu'il y perd en linéarité.
Il en va ainsi de la notion de déterminant qui s'est dégagé de l'étude des sys-
tèmes d'équations linéaires que nous aborderons au chapitre suivant. En fait,
la résolution d'un système d'équations linéaires se traduit en algèbre linéaire
par la recherche d'un vecteur dont l'image par une application linéaire est un
vecteur donné.
ax + by = x0

Exemple : On peut montrer que le système admet une
cx + dy = y 0
unique solution si et seulement si ad − bc 6= 0

3 ABB −1 A−1 = B −1 A−1 AB = Id donc l'inverse de AB est B −1 A−1 .


4 En utilisant la propriété précédente, on a (A−1 )−1 A−1 = (A A−1 )−1 = Id−1 = Id et
A (A ) = (A−1 A)−1 = Id−1 = Id
−1 −1 −1
5 C −1 existe donc ACC −1 = BCC −1 i.e. A = B . On procède de même pour l'autre
propriété.
6 t A t (A−1 ) = t (A−1 A) = t (Id) = Id et t (A−1 ) t A = t (AA−1 ) = t (Id) = Id donc
( A)−1 = t (A−1 )
t
7 A est symétrique i.e. t A = A donc t (A−1 ) = (t A)−1 = A−1 i.e. A−1 est symétrique.
8 le lecteur le vériera sans peine

Supinfo Aquitaine Algèbre linéaire


16 Chapitre 2 Matrices

x0
    
a b x
ce système se traduit en termes matriciels par =
c d y y0
 
a b
Le nombre ad − bc est appelé le déterminant de la matrice
c d

2.2.1 Construction de la notion de déterminant


ATTENTION : Si la construction de la notion de déterminant vue ici est
largement articielle, elle évite néanmoins - à mon sens - l'écueil d'une déni-
tion trop parachutée.

base canonique
On considère E un K-ev de dimension n. Soit (e~1 , ..., e~n )une base de E
et soit l'application µ de E dans Kn (je rappelle que Kn est un K-ev de di-
mension n) qui à un vecteur ~y = a1 e~1 + a2 e~2 + ... + an e~n associe le vecteur
µ(~y ) = (a1 , a2 , ..., an ) (cette application possède certaines propriétés que nous
n'évoquerons pas ici. On dit que c'est un isomorphisme d'espaces vectoriels).
Les images des vecteurs de base e~1 , ..., e~n sont respectivement µ(e~1 ) = (1, 0, ..., 0),
µ(e~2 ) = (0, 1, ..., 0) ,...,µ(e~n ) = (0, 0, ..., 1). Les propriétés de µ impliquent que
n vecteurs de E sont linéairement indépendants si et seulement si leur image
par µ le sont.

dénition : 1. µ(e~1 ) = (1, 0, ..., 0), µ(e~2 ) = (0, 1, ..., 0), ..., µ(e~n ) = (0, 0, ..., 1)
est une base de Kn appelée base canonique de Kn .

µ est simplement l'application coordonnée. Exemple dans R2 muni de la


base (~i, ~j) , µ(a~i + b~j) = (a, b)

Voici un diagramme résumant la situation :


Soit ϕ une application linéaire de E dans E et soit M sa matrice associée par
l'application ∆ de L(E) 9 dans Mn (K) ( ∆ est également un isomorphisme
d'espace vectoriel).

9 L(E)
muni des lois addition et composition des applications est l'espace vectoriel des
applications linéaires de E dans E

Algèbre linéaire Supinfo Aquitaine


Déterminant 17

P ϕ P
ai e~i −−−−−−−−−−−−−−−−−−−−−−→ ai ϕ(~
ei ) L(E) ϕ

←−−−−−

←−−−−−

←−−−−−−−−


E −−−−−−−−−−−−−−−−→ E

←−−−−−−−−
µ µ
↓ ↓

  K −−−−−−−−−−−−−−−−→ Kn
n
 
a1 a1
 a2   a2 
multiplication parM
 ..  −−−−−−−−−−−−−−−−−−−−−−→ M  ..  Mn (K) M
   
. .
an an

déterminant comme condition d'inversion d'une matrice

On considère un système de n équations à n inconnues que l'on traduit


sous forme matricielle par M A = B où A est la matrice colonne formée des
inconnues et B la matrice colonne formée des seconds membres.
Soit ϕ l'application linéaire de Kn dans Kn associée à la matrice M .

Le problème a-t-il une solution unique ? ? ?


c'est à dire, M est-elle inversible ?
Ou dit autrement, ϕ est-elle inversible ?
10
OU ENCORE, (ϕ(e~1 ), ..., ϕ(e~n )) est-elle une base de Kn ?
10 théorème : ϕ est inversible ⇔ ϕ envoie une base de E sur une base de E .

Démonstration. 1. Supposons que ϕ est inversible alors ϕ−1 existe et ∀~v ∈ E ,


ϕ (~v ) ∈ PE . Comme (e~1 , ..., e~n ) est une base de E , ∃(λi )1≤i≤n
−1
∈ K,
n Pn
ϕ−1 (~v ) = ~i donc ∀~v ∈ E , ∃(λi )1≤i≤n ∈ K, ~v =
i=1 λi e ei ).
i=1 λi ϕ(~
(ϕ(e~1 ), ..., ϕ(e~n )) est une famille génératrice de n vecteurs de E espace vectoriel de
dimension n sur K donc (ϕ(e~1 ), ..., ϕ(e~n )) est une base de E .
2. Réciproquement si ϕ envoie une base de E sur Pnune base de E alors :
 Soit P ~ ∈ E alors ∃(λi )1≤i≤n ∈ K, ~v =
w i=1 λi ϕ(~ ei ). Un antécédent de w
~ est
n
~v = i=1 λi e~i donc ϕ est surjective.
Pn Pn
 Soient ~v = i=1 λi e~i et v~0 = i=1 αi e~i ∈ E alors
n Pn
ϕ(~v ) = ϕ(v~0 ) ⇐⇒
P
i=1 ei ) = i=1 αi ϕ(~
λi ϕ(~ ei )
Pn
⇐⇒ (λ − α )ϕ(~
e ) = ~
0
i=1 i i i
⇐⇒ ∀i, λi = αi car (ϕ(~ ei ))1≤i≤n est une base de E
⇐⇒ ~v = v ~ 0

ϕ est donc injective.


 ϕ est surjective et injective donc bijective i.e. ϕ est inversible.
c.q.f.d.

Supinfo Aquitaine Algèbre linéaire


18 Chapitre 2 Matrices

Pour cela essayons de construire une application D de (Kn )n dans K qui à n


vecteurs de Kn associe un nombre qui nous indiquera si ces n vecteurs forment
une base de Kn .
En dimension 3 , nous connaissons déjà une application qui à 3 vecteurs liés
associe la valeur nulle et à 3 vecteurs linéairement indépendants associe un
nombre strictement positif. Cette application renvoie à la notion de volume.
(R3 )3 −→ R
Caractérisons-la plus proprement : Soit V :
(x~1 , x~2 , x~3 ) −→ V (x~1 , x~2 , x~3 )

   
   
6
2
λx~
+

λx~2
x~1

6
x~2 x~*
3 
 - 
x~1

Fig. 2.1  les volumes des parallélépipèdes sont identiques

V (e~1 , e~2 , e~3 ) = 1 correspond au volume du cube unité.


on a également ∀λ ∈ R, V (x~1 , x~2 + λ~ xi , x~3 ) = V (x~1 , x~2 , x~3 ) (Fig 2.1) et
V (x~1 , λ~ xi , x~3 ) = |λ|V (x~1 , x~2 , x~3 )
On admettra que ces trois propriétés caractérisent entièrement l'application V .

Généralisons l'application V à la dimension n en omettant la valeur absolue


dans la troisième égalité.
Soit
(Kn )n −→ K
D:
(x~1 , ..., x~n ) −→ D(x~1 , ..., x~n )
telle que :

1. D(x~1 , ..., λ~
xi , , ..., x~n ) = λD(x~1 , ..., x~n ) ∀λ ∈ K et ∀i ∈ [1, n]

2. D(x~1 , x~2 + λ~
xi , ..., x~n ) = D(x~1 , ..., x~n ) ∀λ ∈ K et ∀i ∈ [1, n]\{2}

3. D(e~1 , e~2 , ..., e~n ) = 1

Algèbre linéaire Supinfo Aquitaine


Déterminant 19

On en déduit que :
D(x~1 , ..., 0, ..., x~n ) = 011
D(x~1 , ..., x~n ) = 0 si (x~1 , ..., x~n ) sont linéairement dépendants.12
et D(x~1 , ..., ~b + ~c, ..., x~n ) = D(x~1 , ..., ~b, ..., x~n ) + D(x~1 , ..., ~c, ..., x~n )13
D(x~1 , ..., x~i , ..., x~j , ..., x~n ) = −D(x~1 , ..., x~j , ..., x~i , ..., x~n )14
(On dit que D est une forme multilinéaire alternée.)

Une fois construite cette application, on en déduit sa formule (pour cela


on a besoin de quelques connaissances sur les permutations et de la propriété
D(e~1 , e~2 , ..., e~n ) = 1). De cette formule que je n'explicite pas ici, on tire la
propriété suivante : D(BC) = D(B)D(C) et ainsi on aura :

théorème 1. (x~1 , x~2 , ..., x~n ) est une famille libre ssi D(x~1 , x~2 , ..., x~n ) 6= 0

Démonstration. On sait déjà que si x~1 , x~2 , ..., x~n sont linéairement dépendants
alors D(x~1 , x~2 , ..., x~n ) = 0. La contraposée nous donne donc : si D(x~1 , x~2 , ..., x~n ) 6= 0
alors (x~1 , x~2 , ..., x~n ) est une famille libre.
Réciproquement, si x~1 , x~2 , ..., x~n sont linéairement indépendants, soit A la
matrice ayant x~1 , x~2 , ..., x~n pour colonnes. Alors A est inversible donc il existe
A−1 telle que AA−1 = Id. Par suite, D(Id) = 1 = D(A)D(A−1 ), donc néces-
sairement D(A) 6= 0
c.q.f.d.

2.2.2 calcul explicite du déterminant d'une matrice


Dénition 2.6. On appelle déterminant de A et l'on note ∆ ou detA ou encore
|aij | , le réel calculé à partir des coecients de la matrice A = (aij ) ∈ Mn (K)
tel que :
 Si A est une matrice carrée d'ordre 1, telle que A = (a), alors det(A) = a.

11 ilsut de prendre λ = 0 P
12 n
∃λi ∈ K, x1 = i=2 xi et en utilisant la deuxième propriété, on a
D(x~1 , ..., x~n ) = D(0, x~2 , ..., x~n ) = 0
13 admis
14 D(x~ + x~ , x~ + x~ , x~ , ..., x~ ) = 0 car les deux premiers éléments sont égaux.
1 2 1 2 3 n
D(x~1 + x~2 , x~1 + x~2 , x~3 , ..., x~n ) = D(x~1 , x~1 , x~3 , ..., x~n ) + D(x~1 , x~2 , x~3 , ..., x~n ) +
D(x~2 , x~2 , x~3 , ..., x~n ) + D(x~2 , x~1 , x~3 , ..., x~n ) = 0. Le premier et le troisième terme sont
nuls car ils ont deux éléments égaux. Il reste donc :
D(x~1 , x~2 , ..., x~n ) = −D(x~2 , x~1 , ..., x~n ).
La même démonstration peut se faire pour deux autres indices quelconques

Supinfo Aquitaine Algèbre linéaire


20 Chapitre 2 Matrices

 Si A est une matrice carrée d'ordre supérieur à 2, detA = ni=1 (−1)i+j aij ∆ij
P
où ∆ij est le déterminant à n − 1 lignes et n − 1 colonnes obtenu en sup-
primant dans ∆ la iième ligne et la j ième colonne. ∆ij est appelé le mineur
de aij .
cette égalité est appelée developpement de ∆ par rapport à sa j-ème co-
lonne.

Cas où A ∈ M2 (K)
 
a11 a12
la matrice A = ∈ M2 (K) admet donc comme déterminant
a21 a22
a11 a12
detA = = (−1)1+1 a11 ∆11 + (−1)2+1 a21 ∆21 = a11 a22 − a21 a12 (on
a21 a22
re
dit qu'on a développé par rapport à la
 1 colonne)

a b
Ou plus simplement la matrice A = ∈ M2 (K) admet comme déter-
c d
minant detA = ad − bc.

Cas où A ∈ M3 (K)
 
a11 a12 a13
La matrice A =  a21 a22 a23  ∈ M3 (K) admet
a31 a32 a33
comme déterminant (On développe par rapport à la 1re colonne) :

a11 a12 a13


detA = a21 a22 a23 = (−1)1+1 a11 ∆11 + (−1)2+1 a21 ∆21 + (−1)1+3 a31 ∆31
a31 a32 a33

a22 a23 a12 a13 a12 a13


detA = a11 − a21 + a31
a32 a33 a32 a33 a22 a23
detA = a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 a23 − a22 a13 )

detA = a11 a22 a33 − a11 a32 a23 − a21 a12 a33 + a21 a32 a13 + a31 a12 a23 − a31 a22 a13

cette formule n'est évidemment pas à retenir, mais il faut être capable de la
retrouver, notament via la règle de Sarrus :

Il sut pour cela de réecrire les 2 premières lignes en dessous des précédentes
comme ci-après et d'eectuer les opérations comme sur le schéma.

Algèbre linéaire Supinfo Aquitaine


Déterminant 21

+ a11 a12 a13 −


..
.

.
..
+ a21 a22 a23 −
.. ..
. .

.
..

..
detA = + a31 a32 a33 −
.. ..
. .

.
..

..
a11 a12 a13
..
.

.
..
a21 a22 a23

detA = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a13 a22 a31 − a23 a32 a11 − a33 a12 a21

Cas où A ∈ Mn (K)
Pour les matrices d'ordre n, n ≥ 4 , on développe en ligne ou en colonne
pour se ramener au calcul de déterminant de matrices d'ordre n−1 et on réitère
l'opération autant de fois que nécessaire.
Exemples. Dans un premier temps, on examine la "tête" de la matrice. On
repère les lignes ou les colonnes selon lesquelles le développement sera le plus
simple à calculer. De manière général, on cherche les lignes ou les colonnes où il
y a un maximum de zéro. Sur cet exemple, il est donc préférable de développer
selon la quatrième ligne ou la troisième colonne. Il est plus facile visuellement
de développer par rapport à la quatrième lignes :
1 2 0 3
2 0 3 1 0 3 1 2 3 1 2 0
0 2 0 1
= −0 × 2 0 1 + 0 × 0 0 1 − 0 × 0 2 1 + 2 × 0 2 0
6 2 3 6
2 3 6 6 3 6 6 2 6 6 2 3
0 0 0 2

1 2 0
= 2× 0 2 0
6 2 3

On développe ensuite par rapport à la troisième colonne.

0 2 1 2 1 2
= 2×0× −2×0× +2×3×
6 2 6 2 0 2

= 2 × 3 × (1 × 2 − 0 × 2) = 12

Supinfo Aquitaine Algèbre linéaire


22 Chapitre 2 Matrices

2.2.3 Propriétés du déterminant


Les propriétés du déterminant se démontrent à partir de sa formule géné-
rale. Nous admettrons donc ces propriétés sans les démontrer.

propriétés 4. Soient A et B ∈ Mn (K), alors det(AB) = detA detB .


On en déduit immédiatement que det(Ak ) = (detA)k pour tout A ∈ Mn (K).
propriétés 5. Soient A ∈ Mn (K), alors det(At ) = detA i.e. le déterminant
est inchangé si l'on permute les n lignes avec les n colonnes.
propriétés 6 (rappel).  Si on multiplie une colonne par un réel λ, la va-
leur du déterminant est elle-même multipliée par λ.
 Si la matrice contient une colonne nulle, alors la valeur du déterminant
de cette matrice est nulle.
 Le déterminant change de signe si l'on intervertit 2 lignes ou 2 colonnes
entre-elles.
 On ne change pas la valeur du déterminant d'une matrice si l'on ajoute
à l'une de ses colonnes une combinaison linéaire des autres colonnes.
En particulier, si une matrice contient deux colonnes (ou deux lignes)
identiques ou proportionnelles, alors son déterminant est nul.

2.2.4 Matrices particulières et déterminant


1. Le déterminant de la matrice identité est égal à 1
2. Commençons par donner quelques dénitions de matrices particulières.
Matrice particulière 5. On appelle matrice diagonale une matrice
dont tous les coecients sont
 nuls à l'exception de  ses termes diagonaux.
a11 0 ... 0
. . 
 0 a22 . . .. 

Elle est donc de la forme  . .. ..
 .. . . 0 

0 . . . 0 ann
Matrice particulière 6. On appelle matrice triangulaire supérieure
une matrice dont tous les  coecients sous la diagonale  sont nuls.
a11 a12 . . . . . . a1n
. .. 
 0 a22 . . . 

 . .. .. .. .
Elle est donc de la forme  . .

. . . . . 
 . . .
 
 . . . . . . an−1n 

0 ... ... 0 ann

Algèbre linéaire Supinfo Aquitaine


Inversion d'une matrice 23

Elle est dite strictement triangulaire supérieure si elle est triangu-


laire supérieure et que ses termes diagonaux sont nuls.

On appelle matrice (strictement) triangulaire inférieure une ma-


trice dont la transposée est (strictement) triangulaire supérieure.
propriétés 7. Le déterminant d'une matrice diagonale, triangulaire su-
périeure ou inférieure, est le produit de ses termes diagonaux i.e.
∆ = a11 a22 · · · ann
En particulier, le déterminant d'une matrice strictement triangulaire su-
périeure ou inférieure est nul.15

2.3 Inversion d'une matrice

Cette section a pour objectif de trouver B l'inverse d'une matrice A ∈ Mn K.

Théorème 5 (Rappel). Une matrice A est inversible, si et seulement si son


déterminant est non nul.

Si son déterminant est nul, A ∈ Mn K n'a pas d'inverse.


Sinon, On a deux possibilités pour trouver B inverse de A ∈ Mn K :

2.3.1 résolution d'un système


Si B existe alors AB = Id. En identiant membre à membre les deux
côtés de l'égalité, on obtient un système de n2 équations à n2 inconnues. La
résolution d'un tel système par la méthode du pivot de Gauss (cf chapitre
suivant) a un caractère mécanique c'est pourquoi cette méthode est préférée
en algorithmique.
  
1 2 a b
Exemples. Soit A = . On pose A =
3 2
−1
c d
.


 a + 2c = 1
     
3a + 2c = 0
1 2 a b 1 0
AA−1 = Id ⇔ = ⇔
3 2 c d 0 1 b + 2d = 0



3b + 2d = 1
On résout alors le système pour trouver les coecients a, b, c et d.
15 Il sut pour cela de développer le déterminant .

Supinfo Aquitaine Algèbre linéaire


24 Chapitre 2 Matrices

2.3.2 formule de l'inverse


Dénition 2.7. On appelle cofacteur du coecient aij de A noté Aij ,où A est
une matrice carrée d'ordre n de terme général (aij ), la quantité (−1)i+j ∆ij .

Dénition 2.8. On appelle comatrice de A , et l'on note Co(A), la matrice


de terme général Aij . C'est la matrice des cofacteurs.

Exemple où A ∈ M3 (K)

 
a11 a12 a13
SoitA =  a21 a22 a23  alors
a31 a32 a33

 
1+1 a22 a23 1+2 a21 a23 1+3 a21 a22
 (−1) a32 a33
(−1)
a31 a33
(−1)
a31 a32 
 
 
 
 2+1 a12 a13 a11 a13 a11 a12 
CoA = 
 (−1) (−1)2+2 (−1)2+3 
 a32 a33 a31 a33 a31 a32 

 
 
 a12 a13 a11 a13 a11 a12 
(−1)3+1 (−1)3+2 (−1)3+3
a22 a23 a21 a23 a21 a22

Soit

 
a22 a23 a21 a23 a21 a22
 + − +
 a32 a33 a31 a33 a31 a32 

 
 
 a12 a13 a11 a13 a11 a12 
 −
CoA =  + − 
 a32 a33 a31 a33 a31 a32 

 
 
 a12 a13 a11 a13 a11 a12 
+ − +
a22 a23 a21 a23 a21 a22

Théorème 6. Si A est une matrice carrée inversible d'ordre n, alors son in-
verse est :

1 t
A−1 = (CoA)
detA

Algèbre linéaire Supinfo Aquitaine


Inversion d'une matrice 25

Démonstration. Le terme général du produit C = A t (CoA) est cij = nk=1 aik A0kj
P
où A0kj est le terme général de la transposée de la comatrice donc A0kj = Ajk .
cij est donc le déterminant obtenu en remplaçant dans A la j ième ligne par la
iième : si i 6= j , ce déterminant possède deux lignes identiques donc il est nul.
Si i = j , cii = nk=1 aik Aik = detA
P
1 t
Donc C = A t (CoA) = (detA)Id i.e. A−1 = (CoA). c.q.f.d.
detA
 
1 1 0
Exemples. Soit A =  0 2 1 . On a alors detA = 1 et
1 0 0
 
2 0 0 1 0 2
 + − +
 0 0 1 0 1 0  
   
  0 1 −2
 1 0 1 0 1 1   
CoA =   − 0 0
+
1 0

1 0 
= 0 0 1 



 1 −1 2
 
 1 0 1 0 1 1 
+ − +
2 1 0 1 0 2

Donc  
0 0 1
A−1 =  1 0 −1 
−2 1 2

2.3.3 propriétés de l'inverse


propriétés 8. Toute matrice A triangulaire supérieure - respectivement infé-
rieure - est inversible si et seulement si ses coecients diagonaux sont non
nuls. A−1 est alors triangulaire supérieure - respectivement inférieure - et ses
coecients diagonaux sont les inverses des coecients diagonaux de A.16

16 cette propriété se déduit directement de la propriété 6.

Supinfo Aquitaine Algèbre linéaire


26 Chapitre 2 Matrices

Algèbre linéaire Supinfo Aquitaine


Chapitre 3

Diagonalisation des matrices


carrées

introduction

Quand on connait une application linéaire, il est souvent utile de trouver


une base dans laquelle elle s'exprime sous la forme d'une matrice la plus simple
possible : cela évite de long et fastidieux calculs quand on travaille avec cette
application.
Il s'agit donc dans la première partie de ce chapitre d'exprimer des relations
qui nous permettrons de passer d'une base à une autre, c'est à dire de passer
d'un système de coordonnées à un autre suivant les besoins et de maîtriser les
outils permettant ces passages.
Nous aborderons ensuite la dénition d'éléments utiles à la recherche d'une
base - quand elle existe - dans laquelle notre application s'exprime simplement
et le procédé mise en oeuvre pour la trouver.

3.1 Matrice de Passage

3.1.1 Dénition
Dénition 3.1. Soit E un espace vectoriel de dimension n et soit un vec-
teur ~x ∈ E de coordonnées (αi )1≤i≤n dans la base B = (~e1 , . . . , ~en ). Soit
B0 = (e~0 1 , . . . , e~0 n ) une autre base de E . Supposons P connues les coordonnées
des vecteurs e~0 i dans la base (~e1 , . . . , ~en ) : e~0 j = ni=1 pij ~ei .
On appelle matrice de changement de base ou matrice de passage
de B à B0 la matrice carrée de taille n dont la j ime colonne est formée des
coordonnées de e~0 j dans la base B. Autrement dit, la matrice de passage de B

27
28 Chapitre 3 Diagonalisation des matrices carrées

à B0 est la matrice des nouveaux vecteurs de base exprimés en fonction des


anciens.
e01 · · · e0j · · · e0n
 
p11 . . . p1j . . . p1n e1
.. . ..
. . . . . . . . . . . . . .. .
 
Elle est donc de la forme 
 
p p p ei

 i1 ij in 
 .. ..  ..
 . ............ .  .
pn1 . . . pnj . . . pnn en
Exemples. Dans R2 , la matrice de passage
 de labase (e1 , e2 ) à la base (e01 , e02 )
1 −1
avec e01 = e1 + e2 et e02 = −e1 + e2 est
1 1
Théorème 7. Soit E un espace vectoriel de dimension n et soit X la matrice
colonne formée des coordonnées d'un vecteur ~x de E dans la base B et X 0
la matrice colonne formée des coordonnées de ce même vecteur dans la base
B0 . Soit PB,B0 la matrice de passage de la base B à la base B0 . Alors on a :
X = PB,B0 X 0
Démonstration. D'après les propriétés des matrices (propriétés 1 ), il nous suf-
ra de démontrer ce théorème pour les vecteurs de la base B0 et comme la
multiplication de PB,B0 et de la matrice colonne de e~0 i exprimée dans la base
B0 nous donne e~0 i exprimée dans la base B, on a bien X = PB,B0 X 0 . c.q.f.d.
Exemples (suite1). Soit ~u de coordonées (2, −1) dans la base (e01 , e02 ).

e~2 
e~1 +
1
@
I 6e~2
~ 0  3
@ e1 0 =
e~ 2 
−
e~01 
@
=  2
e~02@ ~v 
@
@
  e~-1

Fig. 3.1  Expression de ~u dans les bases (e1 , e2 ) et (e01 , e02 ).


     
1 −1 2 3
alors = sont les coordonnées de ~u dans la base
1 1 −1 1
(e1 , e2 )
Remarque 4. Comme P transforme une base en une autre base, P est in-
versible. Donc dans les même conditions que dans le théorème, on a également
0X.
−1
X 0 = PB,B

Algèbre linéaire Supinfo Aquitaine


Matrice de Passage 29

3.1.2 changement de base d'une application linéaire


Les matrices de passage sont aussi utiles pour obtenir les formules de chan-
gement de base d'une application linéaire.
Soit A la matrice de f exprimée dans la base B. Soit ~u un vecteur de E , de
matrice colonne X et X 0 respectivement dans B et B0 et ~v = f (~u) un vecteur
de E , de matrice colonne Y et Y 0 respectivement dans B et B0 . On a alors les
relations Y = AX , X = P X 0 et Y = P Y 0 .
Donc P Y 0 = A P X 0 et en multipliant par P −1 , Y 0 = P −1 A P X 0 = A0 X 0
où A0 est la matrice de f dans la base B0 . On a donc :

A0 = P −1 A P

Ce que l'on peut représenter par le diagramme :

multiplication parA
P X0 = X −−−−−−−−−−−−−−−−−−−−−→ AP X 0
−−−−−→

←−−−−−
Kn −−−−−−−−−−−−−−−−→ Kn
↑ ↓
P −1
P

Kn −−−−−−−−−−−−−−−−→ Kn
multiplication parA0
X0 −−−−−−−−−−−−−−−−−−−−−−→ A0 X 0 = P −1 AP X 0

Dénition 3.2. On dit alors que A et A0 sont semblables, c'est à dire qu'elles
représentent la même application linéaire dans des bases diérentes.

Exemples (suite2). Soit ϕ l'application linéaire qui à ~v de coordonnées (x, y)


associe le vecteur v de coordonnées ( 12 (x
~0
 + y), 
1
2
(x + y)) dans la base B.
1 1
La matrice associée à f est donc 1 A = 21 .
 1 1 
1 1
On connait P , on en déduit P −1 = 12 . On en conclut alors que
  −1 1
1 0
A0 = P −1 AP = est la matrice de ϕ dans la base B0 .2
0 0
1
    
1 En 1 1 x 2 (x
+ y)
eet,1
2 = 1 .
1 1 y 2 (x
+y) 
0
x0
  
2 On peut remarquer que 1 0 x
= et donc que ϕ est la projection de
0 0 y0 0
~v sur e~01 selon la direction de e~02 . On vériera sans peine à partir des matrices A et A0 que
ϕ(~u) = 2e~01 = 2e~1 + 2e~2 (cf fig3.1)

Supinfo Aquitaine Algèbre linéaire


30 Chapitre 3 Diagonalisation des matrices carrées

3.2 Diagonalisation

3.2.1 Eléments propres d'une matrice carrée


Pour partir à la recherche d'une base de E dans laquelle la matrice de f
s'exprime simplement, on commence par chercher les vecteurs de E suivants :

Dénition 3.3. Soient E un espace vectoriel de dimension n et f une appli-


cation linéaire de E dans E .
On appelle vecteur propre de f tout vecteur ~v ∈ E tel qu'il existe λ ∈ K,
f (~v ) = λ~v .
λ est appelé valeur propre de f . On dit alors que ~v est un vecteur propre
associé à la valeur propre λ.
L'ensemble des vecteurs propres associés à la valeur propre λ, noté Eλ
(Eλ = {~x ∈ E /f (~x) = λ~x}), est appelé le sous-espace propre associé à
la valeur propre λ.

Remarque 5.  Eλ est un sous-espace vectoriel de E de dimension nie.3


 Il contient par dénition un vecteur non nul, sa dimension est donc su-
périeure ou égale à 1.
 De Tplus, si λ et λ0 sont deux valeurs propres diérentes de f , alors
Eλ Eλ0 = 0 4 .

Exemples.
 Soient
 f une application linéaire de E dans E associé à la matrice
6 −5
A= dans une base B quelconque de E . Le vecteur ~u de coordonnées
3 −2
(5; 3) dans la baseB est un vecteur
  propre
 def .  
6 −5 5 15 5
En eet comme = = 3× , le vecteur ~u de
3 −2 3 9 3
coordonnées (5; 3) dans la base B est un vecteur propre de f associé à la valeur
propre 3.

Lemme. Soit A ∈ Mn (K) alors (detA = 0 ⇐⇒ (∃X 6= 0 ∈ Mn1 (K), AX = 0))

Démonstration. Soit f l'application linéaire associée à la matrice A exprimée


dans la base B = (~e1 , . . . , ~en ).
Si detA = 0 alors les vecteurs f (~e1 ), ..., f (~en ) sont P
liés, c'est à dire qu'il existe
n
Pn non tous nuls tels que f (~e1 ) =
(αi )2≤i≤n ei ). On a alors
i=2 f (~
f (~e1 − i=2 ~ei ) = 0 donc si X représente le vecteur ~e1 − ni=2 ~ei , on a bien
P

3 La
démonstration ne présenteTaucune diculté
4 Par
l'absurde, Si
T ~x 6= 0 ∈ Eλ Eλ0 alors f (~x) = λ~x = λ ~x donc λ = λ . Impossible par
0 0

hypothèse donc Eλ Eλ0 = 0

Algèbre linéaire Supinfo Aquitaine


Diagonalisation 31

AX = 0 avec X 6= 0.
Pour montrer la réciproque, nous raisonnerons par l'absurde. Si detA 6= 0
alors A est inversible donc il existe B tel que BA = Id, d'où s'il existe X 6= 0
tel que AX = 0 alors X = BAX = B0 = 0 .Impossible par hypothèse donc
s'il existe X 6= 0 tel que AX = 0 alors detA = 0
c.q.f.d.

Théorème 8. Si A est une matrice dans une base quelconque, alors les valeurs
propres de A sont les nombres λ qui vérient :

det(A − λId) = 0 .

Autrement dit, les valeurs propres de A sont les solutions de cette équation.
Démonstration. Il sut de remplacer la matrice A du lemme par la matrice
A − λId. c.q.f.d.

Dénition 3.4.
a11 − λ . . . . . . . . . . . . . . . . a1n
.. .. ..
. . .
On notera PA (λ) = det(A − λId) = .. ..
. aij − λ .
.. .. ..
. . .
an1 . . . . . . . . . . . . . . . . ann − λ

le polynôme de degré n obtenu en développant ce déterminant. On l'appelle le


polynôme caractéristique de A ou de f .

Rechercher les valeurs propres de f revient donc à chercher les racines de


son polynôme caractéristique.

Sur les polynômes. On dit qu'un polynôme P de degré n est scindé s'il peut
s'écrire sous la forme P (x) = a(x − x1 )m1 (x − x2 )m
P...(x
2
− xk )mk . mi est appelé
la multiplicité de la racine xi . On a évidemment ki=1 mi = n.
Si le corps de référence de E est R, f admet au maximum n valeurs propres,
distinctes ou confondues. 5
Exemples (suite).Soient f l'application linéaire dénie dans l'exemple précé-
6−λ −5
dent. Son polynôme caractéristique est PA (λ) = .
3 −2 − λ
5 Sile corps de référence de E est C, f admet exactement n valeurs propres, distinctes ou
confondues. Ceci résulte d'un théorème fondamental de l'analyse qui ne fait pas l'objet de
ce cours, il sera donc admis.

Supinfo Aquitaine Algèbre linéaire


32 Chapitre 3 Diagonalisation des matrices carrées

PA (λ) = (6 − λ)(−2 − λ) + 15 = λ2 − 4λ + 3 = (λ − 3)(λ − 1). f admet


donc deux valeurs propres λ1 = 1 et λ2 = 3.
Un
 vecteurpropre
 v~1 associé
  à la valeurpropre λ1 = 1 vérie f (v~1 ) = v~1
6 −5 x x 6x − 5y = x
i.e. = ou encore ⇔x=y
3 −2 y y 3x − 2y = y
Le sous-espace propre associé à λ1 = 1 est la droite vectorielle y = x
i.e. Eλ1 = {~v de coordonnée (x; y)/y = x} = {~v de coordonnée (x; x)}
Un
 vecteurpropre
 v~2 associé
 àla valeur propre
 λ2 = 3 vérie f (v~2 ) = 3v~2
6 −5 x x 6x − 5y = 3x
i.e. = 3× ou encore ⇔ 3x = 5y
3 −2 y y 3x − 2y = 3y
Le sous-espace propre associé à λ2 = 3 est la droite vectorielle 5y = 3x
i.e. Eλ2 = {~v de coordonnée (x; y)/5y = 3x} = {~v de coordonnée (x; 53 x)}. On
a évidemment ~u ∈ Eλ2 ( cf exemple précédent).

3.2.2 Conditions de la diagonalisation


Dénition 3.5. Une matrice carrée est dite diagonalisable lorsqu'elle est
semblable à une matrice diagonale.
Théorème 9. A est diagonalisable si et seulement si il existe une base de Kn
formée de vecteurs propres de A.
Démonstration. Soit f l'application linéaire associée à A.
Si A est diagonalisable, alors il existe une base (v~1 , ...v~n ) de E dans laquelle A
est semblable à D où D est une matrice diagonale.
 
λ1 0 . . . 0
.
 0 λ2 . . 0 
 
D= . .. .. . 
 .. . . .. 
0 . . . 0 λn

On a donc f (v~1 ) = λ1 v~1 , ..., f (v~n ) = λn v~n i.e. v~1 , ..., v~n sont des vecteurs propres
de f . La réciproque est évidente. c.q.f.d.

Lemme (admis). 6 La dimension du sous-espace propre associé à une valeur


propre de A est inférieure ou égale à la multiplicité de cette même valeur propre.
Autrement dit, si λ est une valeur propre de A et si on note dλ = dimEλ et
mλ la multiplicité7 de λ alors dλ ≤ mλ .
6 La
démonstration de ce lemme et du critère de diagonalisation étant un peu longue, nous
nous contenterons de les admettre sans aucun état d'âme.
7 Rappel : m est tel que P (x) = a(x − λ)mλ (x − β)mβ ...(x − γ)mγ
λ A

Algèbre linéaire Supinfo Aquitaine


Méthode 33

Critère de diagonalisation (admis). A est diagonalisable si et seulement si


la multiplicité de chaque valeur propre de A est égale à la dimension du sous-
espace propre qui lui est associé c'est à dire avec les notations précédentes si
dλ = mλ .
Corollaire. Si E est un espace vectoriel de dimension n et si A admet n
valeurs propres distinctes alors A est diagonalisable.
Démonstration. D'après la remarque 5 de la page 30, on sait que si A admet n
valeurs propres distinctes alors il existe n espaces propres disjoints de dimension
supérieure ou égale à 1. On en déduit que la dimension de chaque espace propre
est égale à 1 puisque E est de dimension n.
De plus, A admet n valeurs propres distinctes revient à dire que son polynôme
caractéristique admet n racines de multiplicité 1 (on dit aussi que ce sont des
racines simples).
Donc A remplit le critère de diagonalisation. c.q.f.d.

3.3 Méthode

3.3.1 Méthode générale : les diérentes étapes de la dia-


gonalisation
Soit f une application linéaire de E dans E où E est un espace vectoriel
de dimension n sur K et A sa matrice dans une base B de E .

Etape 1 (recherche des valeurs propres). Elle consiste à calculer le polynôme


caractéristique de A et à déterminer ses racines. Alors 3 cas se présentent :
1. Le polynôme caractéristique de A n'est pas scindé dans K (Par exemple,
x(x2 + 1) n'est pas scindé dans R i.e. n'admet pas toutes ses racines dans
R ) alors A n'est pas diagonalisable dans K.
2. Le polynôme caractéristique de A est scindé dans K et n'admet que des
racines simples alors d'aprés le corollaire A est diagonalisable. La matrice
diagonale semblable à A est formée des valeurs propres de A. Si on a
besoin de la matrice de passage, on déterminera alors les vecteurs propres
de A ( c.f. remarque 6 ci-après).
3. Le polynôme caractéristique de A est scindé dans K et admet des racines
multiples alors d'aprés le critère de diagonalisation, il nous faut recher-
cher les dimensions des espaces propres de A.
Etape 2 (recherche des vecteurs propres). Soit λ une des valeurs propres de A
que l'on vient de déterminer. On recherche donc un vecteur ~x tel que f (~x) = λ~x,

Supinfo Aquitaine Algèbre linéaire


34 Chapitre 3 Diagonalisation des matrices carrées

ou encore si X est la matrice colonne formée de coordonnées de ~x dans B,


on recherche X tel que AX = λX . Cela revient donc à résoudre un système
de n équations à n inconnues. nous déterminerons à partir de sa solution la
dimension de Eλ .

Etape 3. Une fois les dimensions des sous-espaces propres connues, on vérie
si A remplit les critères de diagonalisation. Si c'est le cas A est semblable à une
matrice diagonale formée des valeurs propres de A. La matrice de passage est
alors formée des vecteurs propres de A exprimés dans la base B ( c.f. remarque
6 ci-après).

Remarque 6. L'ordre où l'on dispose dans la matrice diagonale les n valeurs


propres n'a pas d'importance mais impose par la suite le même ordre pour les
vecteurs propres dans la matrice de passage.

3.3.2 Méthode générale : exemples


 
6 −5
Exemples. reprenons l'exemple de la page 31. La matrice A = 3 −2
d'ordre 2 admet deux valeurs  propres distinctes λ1 = 1 et λ2 = 3 donc A est
1 0
semblable à la matrice D = .
0 3
De plus, on sait que Eλ1 = {~v de coordonnée (x; x)} donc que v~1 de coordon-
née (1, 1) est un vecteur propre de λ1 = 1, et que Eλ2 = {~v de coordonnée (x; 53 x)}
d'où v~2 de coordonnée (5,3) est un
 vecteur propre de λ2 = 3. La matrice de
1 5
passage P est alors P = .8
1 3
 
1 1 0
Exemples. Soit A la matrice −1 −1 0 .
1 2 1
1−λ 1 0
Son polynôme caractéristique est PA (λ) = −1 −1 − λ 0
1 2 1−λ
On trouve PA (λ) = λ3 − λ2 = λ2 (λ − 1)
A admet donc deux valeurs propres : λ1 = 0 est une valeur propre double (i.e.
de multiplicité 2) et λ2 = 1 est une valeur propre simple (i.e. de multiplicité 1)
.
   
8A 3 0 5 1
est aussi semblable a la matrice , la matrice de passage est alors
0 1 3 1

Algèbre linéaire Supinfo Aquitaine


Méthode 35

 Un vecteur  propre
 ~vassocié  à la valeur propreλ1 = 0 vérie f (~v ) = 0 i.e.
1 1 0 x 0  x + y = 0
 −1 −1 0   y  =  0  ou encore −x − y = 0
1 2 1 z 0 x + 2y + z = 0


x = −y
Ce système est équivalent à
z = −y
Le sous-espace propre associé à λ1 = 1 est Eλ1 = {~v de coordonnée (x, −x, x), x ∈ R}.
C'est une droite vectorielle engendrée par le vecteur v~1 de coordonées (1, −1, 1)
(C'est à dire que Eλ1 = {αv~1 , α ∈ R}), Eλ1 est donc de dimension 1.
La dimension du sous-espace propre associé à la valeur propre λ1 n'est pas
égale à sa multiplicité , A n'est pas diagonalisable. 9
 
11 1 −4
Exemples. Soit A la matrice 1 11 −4 .
3 3 −2
11 − λ 1 −4
Son polynôme caractéristique est PA (λ) = 1 11 − λ −4
3 3 −2 − λ
On trouve PA (λ) = λ3 − 20λ2 + 100λ = λ(λ − 10)2
A admet donc deux valeurs propres : λ1 = 0 est une valeur propre simple (i.e.
de multiplicité 1) et λ2 = 10 est une valeur propre double (i.e. de multiplicité
2).

 Un vecteur propre
  v~1associé
 à la valeur propre
 λ1 = 0 vérie f (v~1 ) = 0 i.e.
11 1 −4 x 0  11x + y − 4z = 0
 1 11 −4   y  =  0  ou encore x + 11y − 4z = 0
3 3 −2 z  0 3x + 3y − 2z = 0

x=y
Ce système est équivalent à
z = 3y
Le sous-espace propre associé à λ1 = 1 est Eλ1 = {~v de coordonnée (x, x, 3x), x ∈ R}.
C'est une droite vectorielle engendrée par le vecteur v~1 de coordonées (1, 1, 3)
(C'est à dire que Eλ1 = {αv~1 , α ∈ R}).

 Un vecteur propre
  ~v associé
 à la valeur
 propre λ
2 = 10 vérie f (~v ) = 10~v i.e.
11 1 −4 x 10x  11x + y − 4z = 10x
 1 11 −4   y  =  10y  ou encore x + 11y − 4z = 10y
3 3 −2 z 10z 3x + 3y − 2z = 10z

Ce système est équivalent à l'équation x + y − 4z = 0. Le sous-espace propre
associé à λ2 = 10 est le plan vectoriel d'équation x + y − 4z = 0. Il est de
dimension 2 et est donc engendré par deux vecteurs linéairement indépendants,
9 Ilest tout de même possible de simplier un peu la matrice A en la mettant sous la
forme dite de Jordan mais ces matrices ne seront pas abordées dans ce cours

Supinfo Aquitaine Algèbre linéaire


36 Chapitre 3 Diagonalisation des matrices carrées

par exemple les vecteurs de coordonées (1, 3, 1) et (3, 1, 1).

La dimension des sous-espaces propres étant égale à la multiplicité des


valeurs propres
 correspondantes,
 A est diagonalisable et est semblableà la
10 0 0 3 1 1
matrice  0 10 0  et la matrice de passage est alors  1 3 1  ou
 0 0 0 1 1 3
1 3 1
 3 1 1 .10
1 1 3

3.3.3 Cas particuliers


matrice triangulaire
propriétés 9. Une matrice triangulaire admet pour valeurs propres ses termes
diagonaux.11

matrice symétrique
Voici un théorème pratique que nous démontrerons pas ici car il faudrait
pour cela introduire d'autres notions et approfondir le cours. Ou peut-être est-
il possible de le démontrer brutalement par un calcul long et fastidieux ce que
je prendrais bien garde de faire.

Théorème 10. Toute matrice symétrique à coecients réels est diagonalisable


dans R.

 
0 0 0
10 A est aussi semblable a la matrice  0 10 0 , la matrice de passage est alors
0 0 10
   
1 1 3 1 3 1
 1 3 1  ou  1 1 3 .
3 1 1 3 1 1  
10 0 0
A est encore semblable a la matrice  0 0 0 , je laisse au lecteur le soin trouver les
0 0 10
matrices de passage correspondantes
11 il sut d'écrire le polynôme caractéristique pour s'en persuader

Algèbre linéaire Supinfo Aquitaine


Méthode 37

Merci d'avoir eu la patience de lire ce document et bon courage pour les


autres modules.

Ludovic Duchêne

Supinfo Aquitaine Algèbre linéaire

Vous aimerez peut-être aussi