Académique Documents
Professionnel Documents
Culture Documents
Cours - Matrices
Cours - Matrices
Matrices
Dans tout ce chapitre, K est l’un des corps R ou C. Tous les résultats présentés dans ce chapitre demeurent vrais si K est un
corps quelconque, mais nous ne nous en préoccuperons pas ici. Les lettres n, p, q . . . désignent des entiers naturels non nuls.
1.1 Matrices
Définition (Matrice)
• On appelle matrice à n lignes et p colonnes à coefficients dans K ou matrice de taille n × p à coefficients
dans K toute
a11 a12 · · · a1p
a21 a22 · · · a2p
famille A de np éléments de K présentée sous la forme d’un tableau de la forme . .. .. , noté A = aij 16i6n ,
.. . . 16j6p
• La matrice de Mn,p (K) dont tous les coefficients sont nuls est appelée la matrice nulle de taille n × p.
Explication
• Une matrice de taille n × p à coefficients dans K n’est finalement qu’un élément de Knp , i.e. une famillede np éléments
a11 a12
de K, mais qu’on a préféré écrire sous forme d’un tableau à n lignes et p colonnes. Ainsi, au lieu d’écrire , on
a21 a22
np
pourrait écrire (a11 , a12 , a21 , a22 ). En ce sens, on peut affirmer que Mn,p (K) = K .
Cependant, nous introduirons bientôt une loi interne de produit sur les matrices, et vous verrez alors qu’il est bien pratique
d’écrire les matrices comme des tableaux et non comme des familles.
• L’usage veut qu’on utilise le plus possible la lettre i pour indice des lignes, et la lettre j pour indice des colonnes.
Par convention, dans ce cours, si A (majuscule) est une matrice de taille n × p, nous noterons aij (minuscule) le coefficient
de A de position (i, j).
1
c Christophe Bertault - MPSI
Explication
1 3 1 0 1+1 3+0 2 3 0 1 4×0 4×1 0 4
• Exemple : + = = et 4 = = .
2 4 −1 1 2−1 4+1 1 5 −1 2 4 × (−1) 4×2 −4 8
• Nous l’avons vu, une matrice n’est qu’une famille que l’on décide de noter comme un tableau ; ce n’est vraiment qu’une
question de notation. C’est pourquoi on peut affirmer que Mn,p (K) = Knp . Que deviennent l’addition et la multiplication
par un scalaire introduites ci-dessus quand on les exprime au moyen de familles, dans Knp ? Elles deviennent exactement
l’addition et la multiplication par un scalaire qui font de Knp un K-espace vectoriel bien connu. Bref, la structure vectorielle
introduite sur Mn,p (K) n’a rien d’une nouveauté : elle n’est que la copie conforme de la structure vectorielle de Knp que
nous connaissons bien.
• Dans le même registre, que sont les matrices Ei,j , (i, j) ∈ J1, nK × J1, pK, quand on les voit comme des familles de Knp et
non plus comme des tableaux ? Elles deviennent exactement les vecteurs de la base canonique de Knp . Rien d’étonnant
alors au fait que (Ei,j )16i6n soit une base de Mn,p (K).
16j6p
En pratique L’identification Mn,p (K) = Knp vous servira peu souvent dans le cas général ; elle vous aidera seulement,
je l’espère, à comprendre d’où viennent les matrices. Par contre, dans le cas p = 1, vous serez constamment amenés à identifier
x1
x2
en pratique les éléments de Kn et les éléments de Mn,1 (K) ; bref, à manipuler les égalités de la forme (x1 , x2 , . . . , xn ) = . .
..
xn
De même, si n = 1, vous manipulerez les égalités de la forme (x1 , x2 , . . . , xp ) = x1 x2 · · · xp .
Définition (Produit matriciel)! Soient A ∈ Mp,q (K) et B ∈ Mq,r (K). Par définition, le produit de A par B, noté A × B ou
q
X
AB, est la matrice aik bkj de taille p × r.
k=1 16i6p
16j6r b11 b12 · · · b1r
···
b21 b22 b2r
. . .
. . .
. . .
Produit bq1 bq2 ··· bqr
et somme
Xq q q
X X
a11 a12 ··· a1q a1k bk1 a1k bk2 ··· a1k bkr
k=1 k=1 k=1
q q q
X X X
a21 a22 · · · a2q a2k bk1 a2k bk2 ··· a2k bkr
k=1 k=1 k=1
. . . .. .. ..
.. .. .. . . .
Xq q q
X X
ap1 ap2 ··· a pq a pk b k1 a pk b k2 · · · a pk b kr
k=1 k=1 k=1
L’illustration ci-dessus fournit la méthode pratique de calcul du produit de deux matrices. Cela dit, sur une copie, vous n’êtes
pas autorisés à écrire ainsi les matrices les unes au-dessus des autres.
$ $ $ Attention ! Nous venons de définir le produit d’une matrice de taille p × q par une matrice de taille q × r ; c’est une
matrice de taille p × r. Nous ne savons pas faire le produit de deux matrices en général, s’il n’y a pas, comme on dit, compatibilité
des formats.
2
c Christophe Bertault - MPSI
p
X
a1i xi
a11 · · · a1p x1 k=1 y1 n
. X
Exemple . .. .. = .. et x1 · · · xn .. = x k yk .
.. . . .
k=1
an1 · · · anp xp X p yn
ani xi
k=1
Le premier exemple implique que tout système linéaire peut être écrit matriciellement sous la forme Y = AX où A est la matrice
des coefficients du système, X la colonne des inconnues et Y la colonne du second membre. Par exemple :
2x + y − 3z = a 2 1 −3 x a
5y + z = b ⇐⇒ 0 5 1 y = b .
9x + 10y = c 9 10 0 z c
C’est très pratique car la matrice associée au système n’est autre que la matrice de ses coefficients rangés naturellement, les
places vides étant bien sûr complétées par des zéros.
$ $ $ Attention !
• En général, le produit de deux matrices n’est pas commutatif — c’est même pire que cela, car si le produit est défini dans
un sens, il ne l’est généralement pas dans l’autre pour une raison de compatibilité des formats. Par exemple :
1 1 0 0 1 0 0 0 0 0 1 1
= 6= = .
0 1 1 0 1 0 1 1 1 0 0 1
0 1 1 0
• Un produit de matrices peut être nul sans qu’aucune de ces matrices soit nulle. Par exemple : = .
0 0 0 0
1 0 ··· 0
0 1 ··· 0
Définition (Matrice identité) On appelle matrice identité de taille n la matrice In = . .. .. .. carrée de taille n.
.. . . .
0 0 ··· 1
Démonstration Contentons-nous
! de démontrer l’associativité
" q du# produit
! matriciel : (AB)C = A(BC).
q r
X X X
Puisque AB = aik bkj , alors (AB)C = aik bkl clj .
k=1 16i6p l=1 k=1 16i6p
16j6r 16j6s
r
! q
" r
#!
X X X
De même, puisque BC = bil clj , alors A(BC) = aik bkl clj .
l=1 16i6q k=1 l=1 16i6p
16j6s 16j6s
On obtient le résultat voulue en permutant les symboles de sommation dans (AB)C et A(BC).
Kp −→ Kn
Définition (Application linéaire associée à une matrice) Soit A ∈ Mn,p (K). L’application est
X 7−→ AX
linéaire ; on l’appelle l’application linéaire associée à A.
Explication Bien sûr, dans cette définition, le vecteur X de Kp doit être vu comme une matrice colonne, via
l’identification Mp,1 (K) = Kp , sans quoi le produit AX n’aurait pas de sens.
0 1 2 R3 −→ R2
Exemple Soit A = . L’application linéaire associée à A est .
3 4 5 (x, y, z) 7−→ (y + 2z, 3x + 4y + 5z)
3
c Christophe Bertault - MPSI
1.4 Transposition
Définition (Transposée) Soit A ∈ Mn,p (K). On appelle transposée de A la matrice (aji ) 16i6p de Mp,n (K), notée t A.
16j6n
Explication
• La transposition échange les lignes et les colonnes des matrices. A quoi cette opération peut-elle bien servir ? A montrer
que tout résultat théorique sur les colonnes d’une matrice est valable au sujet de ses lignes, et réciproquement. Nous y
reviendrons.
• La transposition échange le nombre de colonnes et le nombre de lignes, de sorte que la transposée d’une matrice de taille
n × p est une matrice de taille p × n. Chose intéressante : la transposée d’une matrice carrée est une matrice carrée de
même taille.
3 5
tλ1
t
3 0 1 .
Exemple = 0 2 et .. = λ1 · · · λn .
5 2 7
1 7 λn
Démonstration Seule l’assertion sur le produit mérite d’être démontrée. Posons C = t (AB) et D = t B t A.
Montrons que C et D ont les mêmes coefficients. Soit (i, j) ∈ J1, rK×J1, pK. Il suffit alors d’observer qu’on a l’égalité
q
X
suivante : cij = ajk bki = dij — évidemment, il faut réfléchir deux secondes (voire plus).
k=1
Définition (Matrice d’une famille de vecteurs dans une base) Soient E un K-espace vectoriel de dimension n,
(e1 , e2 , . . . , en ) une base de E et (x1 , x2 , . . . , xp ) une famille quelconque de vecteurs de E. Pour tout (i, j) ∈ J1, nK × J1, pK, notons
aij la ième coordonnée de xj dans la base (e1 , e2 , . . . , en ).
La matrice aij 16i6n , notée Mat (x1 , x2 , . . . , xp ), est appelée matrice de la famille (x1 , x2 , . . . , xp ) dans la base
16j6p (e1 ,e2 ,...,en )
(e1 , e2 , . . . , en ). x1 x2 xj xp
↓ ↓ ↓ ↓
a11 a12 ··· a1j ··· a1p ← e1
← e2
a21 a22 ··· a2j ··· a2p
. .. .. ..
.
. . . .
Mat (x1 , x2 , . . . , xp ) =
(e1 ,e2 ,...,en )
ai1 ai2 ··· aij ··· aip ← ei
.. .. .. ..
. . . .
an1 an2 · · · anj ··· anp ← en
4
c Christophe Bertault - MPSI
Exemple
• Soient E un K-espace vectoriel de dimension finie et B une base de E. Alors pour tout x ∈ E, Mat(x) est la colonne des
B
coordonnées de x dans B.
1 2
0 −1
4
• Soit B4 la base canonique de R . Alors Mat (1, 0, 3, 1), (2, −1, 0, −1) = .
B4 3 0
1 −1
1 0 0 0 0 0
2 1 −1 1 0 0
• Mat (X 3 +2X +1, X, X 2 −X) =
0 0 et (X 4 ,XMat
1 (X 3 +2X +1, X 2 −X, X) =
0 1 .
0
(1,X,X 2 ,X 3 ,X 4 ) 1 0 3 ,X 2 ,X,1)
0 2 −1 1
0 0 0 1 0 0
$ $ $ Attention ! Si on change la base dans laquelle on exprime la matrice d’une famille de vecteurs, il est bien évident que
la matrice en question change aussi. L’exemple ci-dessus montre en particulier qu’en changeant l’ordre des vecteurs on modifie
complètement la tête de la matrice.
Théorème (Toute matrice est égale à la matrice de ses colonnes dans la base canonique) Soit A ∈ Mn,p (K) de
colonnes C1 , C2 , . . . , Cp ∈ Mn,1 (K) rangées dans l’ordre naturel.
Si BMn,1 (K) est la base canonique de Mn,1 (K), alors : A = Mat (C1 , C2 , . . . , Cp ).
BM
n,1 (K)
Démonstration Réfléchissez !
Définition (Matrice d’une application linéaire dans des bases) Soient E et F deux K-espaces vectoriels de dimensions
respectives p et n, B = (e1 , e2 , . . . , ep ) une base de E et C = (f1 , f2 , . . . , fn ) une base de F .
Soit f une application linéaire de E dans F . On appelle matrice de f dans B et C et on note Mat(f ) la matrice de la famille
B,C
f (B) = f (e1 ), f (e2 ), . . . , f (ep ) dans la base C = (f1 , f2 , . . . , fn ) de F .
f (e1 ) f (e2 ) f (ej ) f (ep )
↓ ↓ ↓ ↓
a11 a12 ··· a1j ··· a1p ← f1
a21 a22 a2j a2p
··· ··· ← f2
. .. .. ..
.
. . . .
Mat(f ) = Mat f (B) = Mat f (e1 ), f (e2 ), . . . , f (ep ) =
B,C C (f1 ,f2 ,...,fn )
ai1 ai2 ··· aij ··· aip ← fi
.. .. .. ..
. . . .
an1 an2 · · · anj ··· anp ← fn
$ $ $ Attention ! Si on change les bases dans lesquelles on exprime la matrice d’une application linéaire, il est bien
évident que la matrice en question change aussi. Un exemple le montre un peu plus bas.
1 0 ··· 0
0 1 ··· 0
Exemple Si E est de dimension finie n et si B est une base de E, alors Mat(IdE ) est la matrice . . .. .. carrée de
B .. .. . .
0 0 ··· 1
taille n, notée In , dont tous les coefficients diagonaux sont égaux à 1 et dont tous les autres coefficients sont nuls.
5
c Christophe Bertault - MPSI
R2 −→ R3
Exemple Soit ϕ l’application linéaire .
(x, y) 7−→ (x, x + y, y − x)
1 0
2 3
(i) Notons B2 et B3 les bases canoniques respectives de R et R . Alors : Mat (ϕ) = 1 1 .
B 2 ,B 3
−1 1
(ii) Posons B02 = (0, 1), (1, 0) et B03 = (1, 1, 1), (1, 1, 0), (1, 0, 0) , bases de R2 et R3 respectivement.
1 −1
Alors : Mat (ϕ) = 0 2 .
B 02 ,B 03
−1 0
En effet
(i) Déterminons les coordonnées de ϕ(1, 0) et ϕ(0, 1) dans la base canonique B3 de R3 .
ϕ(1, 0) = (1, 1, −1) et ϕ(0, 1) = (0, 1, 1). Ce sont déjà les coordonnées voulues.
R4 [X] −→ R5 [X]
Exemple Soit T l’application linéaire . Si B4 et B5 désignent les bases canoniques
P 7−→ X 4 P (3) + P (2) + P (−X)
2 2 4 8 16
0 −1 0 0 0
0 0 1 0 0
respectives de K4 [X] et K5 [X], alors : Mat (T ) = .
B 4 ,B 5 0 0 0 −1 0
0 0 0 6 1
0 0 0 0 24
En effet Il nous suffit de déterminer les coordonnées des vecteurs T (1), T (X), T (X 2 ), T (X 3 ) et T (X 4 ) dans la
base (1, X, X 2 , X 3 , X 4 , X 5 ), puis de les ranger convenablement dans un tableau.
T (1) = 0 + 1 + 1 = 2, T (X) = 0 + 2 + (−X) = −X + 2, T X 2 = 0 + 22 + (−X)2 = X 2 + 4,
T X 3 = X 4 × 6 + 23 + (−X)3 = 6X 4 − X 3 + 8 et T X 4 = X 4 × 24X + 24 + (−X)4 = 24X 5 + X 4 + 16.
Théorème (Toute matrice est égale à la matrice de l’application linéaire qui lui est associée
p dans lesn bases
K −→ K
canoniques) Soit A ∈ Mn,p (K). Nous savons que A peut être vue comme une application linéaire que
X 7−→ AX
nous notons aussi A.
Si Bp et Bn sont les bases canoniques respectives de Kp et Kn , alors : A = Mat (A).
B p ,B n
Démonstration Réfléchissez !
Théorème (Une application linéaire est entièrement déterminée par sa matrice dans des bases) Soient E et F
deux K-espaces vectoriels
( de dimensions respectives p et n, B une base de E et C une base de F .
L(E, F ) −→ Mn,p (K)
Alors l’application f 7−→ Mat(f ) est un isomorphisme de L(E, F ) sur Mn,p (K).
B,C
Démonstration
• La construction de la matrice d’une application linéaire rend évidente la linéarité de l’application Mat du
B,C
théorème — c’est le genre de choses qu’on ne comprend bien qu’en les écrivant proprement soi-même.
• Nous savons que : dim L(E, F ) = dim E × dim F = np = dim Mn,p (K). Pour montrer que l’application
du théorème est bijective, il nous suffit donc de montrer qu’elle est injective.
• Soient f, g ∈ L(E, F ) telles que Mat(f ) = Mat(g). Notons e1 , e2 , . . . , ep les vecteurs de B, dans l’ordre. Alors
B,C B,C
par définition de la matrice d’une application linéaire, f (ej ) et g(ej ) ont la même colonne de coordonnées dans
C pour tout j ∈ J1, pK ; on a donc f (ej ) = g(ej ). Or les applications linéaires sont entièrement déterminées
par l’image qu’elles renvoient d’une base de l’espace de départ, donc ici f = g comme voulu.
6
c Christophe Bertault - MPSI
Théorème (Règles de calcul pour passer d’un point de vue vectoriel à un point de vue matriciel, et vis versa)
(i) Soient E et F deux K-espaces vectoriels de dimension finie, B une base de E et C une base de F .
Soient en outre u une application linéaire de E dans F , x ∈ E et y ∈ F . Posons U = Mat(u), X = Mat(x) et Y = Mat(y).
B,C B C
On a l’équivalence fondamentale suivante :
y = u(x) ⇐⇒ Y = U X.
Démonstration
(i) Introduisons les vecteurs de B et C : B = (e1 , e2 , . . . , ep ) et C = (f1 , f2 , . . . , fn ).
n p
! n p n p n
X X X X X X X
y = u(x) ⇐⇒ yi fi = u x j ej ⇐⇒ yi fi = xj u(ej ) ⇐⇒ yi fi = xj uij fi
i=1 j=1 i=1 j=1 i=1 j=1 i=1
n n p
! p
X X X X
⇐⇒ yi fi = uij xj fi ⇐⇒ ∀i ∈ J1, nK, yi = uij xj ⇐⇒ Y = U X.
i=1 i=1 j=1 j=1
(ii) Posons A = Mat (f ), B = Mat (g) et C = Mat (g ◦ f ). Nous devons montrer que BA = C, i.e. que C
B 1 ,B 2 B 2 ,B 3 B 1 ,B 3
et BA ont les mêmes colonnes.
Introduisons les vecteurs de B1 : B1 = (e1 , e2 , . . . , en ). Soit alors j ∈ J1, nK. La j ème colonne de C est,
par définition, la colonne des coordonnées de g ◦ f (ej ) dans B3 .
Or si Ej désigne la colonne des coordonnées de ej dans B1 — un 1 en j ème position, que des 0 ailleurs — alors
AEj est la colonne des coordonnées de f (ej ) dans B2 via (i). Mais pour la même raison, B(AEj ) = (BA)Ej
est donc la colonne des coordonnées de g ◦ f (ej ) dans B3 , i.e. la j ème colonne de C. Pour finir, on remarque
que (BA)Ej n’est autre que la j ème colonne du produit BA, de sorte que C et BA ont la même j ème colonne,
comme prévu.
4 0 0
√
Exemple Soit R l’endomorphisme de R3 dont la matrice dans la base canonique de R3 est 0 1
√ − 3 .
0 − 3 3
√
Alors Ker R = Vect (0, 3, 1) .
0 0 1 −1
−1 1 1 −1
Exemple L’endomorphisme θ de R3 [X] dont la matrice dans la base canonique de R3 [X] est Θ = 0
est la
2 1 −2
−1 2 1 −2
symétrie par rapport à Vec(X 3 + X 2 + X, X 2 + 1) parallèlement à Vect(X 3 + X + 1, X 3 + X 2 ).
7
c Christophe Bertault - MPSI
En effet
• Par définition, θ est linéaire. Montrer que θ est une symétrie revient donc à montrer que θ2 = IdR3 [X] . D’un
point de vue matriciel, cela revient donc à dire que Θ2 = I4 . On vérifie aisément que cette égalité est correcte.
• Cherchons le sous-espace vectoriel de R3 [X] par rapport auquel θ est une symétrie, à savoir Ker(θ − IdR3 [X] ).
Pour tout P = aX 3 + bX 2 + cX + d ∈ R3 [X] :
d d
b − a = d
c c
− d + c + b − a = c
P ∈ Ker(θ − IdR3 [X] ) ⇐⇒ θ(P ) = P ⇐⇒ Θ b = b
⇐⇒
2c + b − 2a = b
a a − d + 2c + b − 2a = a
− d + b − a = 0
− d + b − a = 0 − d + b − a = 0
⇐⇒ ⇐⇒
c − a = 0 c − a = 0
− d + 2c + b − 3a = 0
a = λ
b = λ+µ
⇐⇒ ∃ λ, µ ∈ R/ . Ainsi Ker(θ − IdR3 [X] ) = Vec(X 3 + X 2 + X, X 2 + 1).
c = λ
d = µ
Théorème (Anneau Mn (K)) Mn (K), +, × est un anneau d’élément neutre In pour la multiplication. Pour n > 2, cet
anneau n’est ni commutatif ni intègre.
Théorème (Deux formules à connaître) Soient A, B ∈ Mn (K). On suppose que A et B commutent. Alors pour tout
k∈N: !
k
k
X k
(A + B) = Ai B k−i (formule du binôme de Newton)
i=0
i
k−1
X
et Ak − B k = (A − B) Ai B k−i−1 .
i=0
8
c Christophe Bertault - MPSI
1 1 2 1 k 2k
k
Exemple Soit A = 0 1 0 . Alors pour tout k ∈ N : A = 0 1 0 .
0 0 1 0 0 1
0 1 2
En effet Pour calculer les puissances de A, écrivons A = I3 + J avec J = 0 0 0. Bien sûr, I3 et J
0 0 0
commutent car I3 commute avec toute matrice carrée de taille 3, et on remarque
que J2 = 0, donc que J i = 0
k
! 1 k 2k
X k i k−i
pour tout i > 2. Par conséquent : ∀k ∈ N, Ak = I J = I3 + kJ = 0 1 0 .
i 3
i=0 0 0 1
Théorème (Les anneaux( L(E) et Mn (K) sont isomorphes) Soit E un K-espace vectoriel de dimension n et B une base
L(E) −→ Mn (K)
de E. Alors l’application f 7−→ Mat(f ) est un isomorphisme d’anneaux.
B
Démonstration Cette application, on l’a déjà vu, est un isomorphisme linéaire, donc une bijection et un
morphisme de groupes pour l’addition. Nous avons également déjà vu qu’elle transforme les produits en produits,
ici sous la forme suivante : ∀f, g ∈ L(E), Mat(f ◦ g) = Mat(f ) × Mat(g). Enfin : Mat(IdE ) = In .
B B B B
A
$ $ $ Attention ! La notation , où A et B sont deux matrices, est rigoureusement interdite.
B
Définition (Groupe linéaire) L’ensemble des matrices inversibles de Mn (K) est noté GLn (K). Alors GLn (K), × est un
groupe d’élément neutre In appelé le groupe linéaire de degré n sur K.
(
L(E) −→ Mn (K)
Remarque Soient E un K-espace vectoriel de dimension n et B une base de E. Nous savons que f 7−→ Mat(f )
B
(
GL(E) −→ GLn (K)
est un isomorphisme d’anneaux. Alors l’application restreinte f 7−→ Mat(f ) est un isomorphisme de groupes.
B
a c
Théorème (Inversibilité des matrices carrées de taille 2) Soient a, b, c, d ∈ K. On appelle déterminant de ,
b d
a c a c
noté det ou
, le scalaire ad − bc.
b d b d
−1
a c a c 1 d −c
La matrice est inversible si et seulement si son déterminant est non nul. Alors = .
b d b d ad − bc −b a
9
c Christophe Bertault - MPSI
Démonstration
1 d −c a c a c 1 d −c
• Si ad − bc 6= 0, alors × = × = I2 — simple calcul
ad − bc −b a b d
b d
ad − bc −b a
a c 1 d −c
— donc est inversible d’inverse .
b d ad − bc −b a
a c d −c a c
• Si ad − bc = 0, alors = 0. Supposons (par l’absurde) inversible. Alors en
b d −b a b d
−1
a c d −c
multipliant par l’égalité précédente on obtient = 0, i.e. a = b = c = d = 0, et donc
b d −b a
a c a c a c
= 0. Contradiction, car nous avons supposé inversible, donc non nulle. Ainsi est
b d b d b d
non inversible comme voulu.
Pour pouvoir donner d’autres exemples de matrices inversibles, nous avons besoin de résultats théoriques sur l’inversiblité
des matrices.
Théorème (Bijectivité = inversibilité) Soient E et F deux K-espaces vectoriels de même dimension finie, B une base de
E, C une base de F . Soit en outre f une application linéaire de E dans F . Alors :
−1
Dans ce cas : Mat f −1 = Mat(f ) .
C,B B,C
Démonstration
• Si f est bijective, alors Mat(f ) × Mat f −1 = Mat(IdF ) = In et Mat f −1 × Mat(f ) = Mat(IdE ) = In , et
B,C C,B C C,B B,C B
donc Mat(f ) est inversible d’inverse Mat f −1 .
B,C C,B
• Réciproquement, si A = Mat(f ) est inversible, soit g l’unique application linéaire de F dans E pour laquelle
B,C
Mat(g) = A−1 . Alors Mat(g ◦ f ) = Mat(g) × Mat(f ) = A−1 A = In et de même Mat(f ◦ g) = In . On en
C,B B C,B B,C C
déduit que g ◦ f = IdE et que f ◦ g = IdF , bref que f est bijective de E sur F , comme voulu.
Corollaire (AB = In suffit) Soient A, B ∈ Mn (K) telles que AB = In . Alors A et B sont inversibles, inverses l’une de
l’autre.
Explication En principe, montrer que A est inversible revient à montrer l’existence d’une matrice B telle que
AB = In et BA = In . Ce théorème montre que l’une ou l’autre des assertions suffit en réalité, ce qui est bien pratique.
Corollaire (Caractérisation des matrices inversibles en termes de systèmes linéaires) Soit A ∈ Mn (K). Les
assertions suivantes sont équivalentes :
(i) A est inversible.
(ii) Pour tout second membre Y ∈ Kn , le système linéaire Y = AX d’inconnue X ∈ Kn possède une et une seule
solution ; en d’autres termes : ∀Y ∈ Kn , ∃ ! X ∈ Kn / Y = AX.
10
c Christophe Bertault - MPSI
En pratique Ce théorème nous fournit une méthode en or pour montrer qu’une matrice carrée est inversible et
calculer son inverse.
• En effet, soit A ∈ Mn (K). Faisons l’hypothèse que, pour tout second membre Y ∈ Kn , nous avons su trouver une unique
solution X ∈ Kn au système linéaire Y = AX. Alors A est inversible.
• De plus, avoir trouvé cet unique X, c’est avoir transformé le système linéaire Y = AX en un système linéaire de la forme
X = BY , où B ∈ Mn (K). Ce qui est intéressant, c’est qu’on a alors B = A−1 . La méthode de résolution des systèmes
linéaires la plus systématique est bien sûr la méthode du pivot de Gauss.
1 3 1 −2 3 −4
Exemple La matrice 1 2 2 est inversible d’inverse 1 −1 1 .
0 0 1 0 0 1
En effet Notons A la matrice étudiée.
• Soit Y = (y1 , y2 , y3 ) ∈ R3 . Pour tout X = (x1 , x2 , x3 ) ∈ R3 :
1 3 1 x1 y1 x1 + 3x2 + x3 = y1
Y = AX ⇐⇒ 1 2 2 x2 = y2 ⇐⇒ x1 + 2x2 + 2x3 = y2
0 0 1 x3 y3 x3 = y3
x1 + 3x2 + x3 = y1
⇐⇒ x2 − x3 = y1 − y2 L1 ← L1 − L2
x3 = y3 .
Si on est juste intéressé par l’inversibilité de A, on peut conclure dès maintenant. En effet, le système obtenu
ci-dessus est triangulaire à coefficients diagonaux non nuls, donc possède une et une seule solution. Ceci
montre que l’équation Y = AX d’inconnue X possède une et une seule solution pour tout second membre
Y , i.e. que A est inversible.
• Et si on veut aussi calculer A−1 ? On reprend la résolution du système Y = AX où l’a laissé ci-dessus.
x1 = −2y1 + 3y2 − 4y3 x1 −2 3 −4 y1
Y = AX ⇐⇒ x2 = y1 − y2 + y3 ⇐⇒ x2 = 1 −1 1 y2 .
x3 = y3 x3 0 0 1 y3
−2 3 −4
Et voilà : A−1 = 1 −1 1 comme annoncé.
0 0 1
1 0 2
Exemple La matrice 2 3 −2 n’est pas inversible.
3 6 −6
En effet Soit Y = (y1 , y2 , y3 ) ∈ R3 . Pour tout X = (x1 , x2 , x3 ) ∈ R3 :
1 0 2 x1 y1 x1 + 2x3 = y1
Y = AX ⇐⇒ 2 3 −2 x2 = y2 ⇐⇒ 2x1 + 3x2 − 2x3 = y2
3 6 −6 x3 y3 3x1 + 6x2 − 6x3 = y3
1 x + 2x 3 = y 1
⇐⇒ 3x2 − 6x3 = y2 − 2y1 L2 ← L2 − 2L1
6x2 − 12x3 = y3 − 3y1 L3 ← L3 − 3L1
x1 + 2x3 = y1
⇐⇒ 3x2 − 6x3 = y2 − 2y1
0 = y3 − 2y2 + y1 L3 ← L3 − 2L2 .
Le système obtenu est triangulaire, mais l’un de ses coefficients diagonaux est nul, il ne possède donc pas une
unique solution, ce qui prouve la non-inversibilité de la matrice considérée.
Théorème (Base = inversibilité) Soient E un K-espace vectoriel de dimension n, B une base de E et F une famille de n
vecteurs de E. Les assertions suivantes sont équivalentes :
(i) F est une base de E. (ii) Mat(F) est inversible.
B
11
c Christophe Bertault - MPSI
Corollaire (Caractérisation des matrices inversibles au moyen de leurs lignes/colonnes) Soit A ∈ Mn (K). Les
assertions suivantes sont équivalentes :
(i) A est inversible.
(ii) La famille des colonnes de A est une base de Kn — cela revient à dire qu’elle est libre ou génératrice.
(iii) La famille des lignes de A est une base de Kn — cela revient à dire qu’elle est libre ou génératrice.
Démonstration
(i) ⇐⇒ (ii) Nous savons que A est égale à la matrice de ses colonnes dans la base canonique de Kn . Le théorème
précédent montre donc l’équivalence (i) ⇐⇒ (ii).
(ii) ⇐⇒ (iii) Nous savons que A est inversible si et seulement t A l’est, et que la transposition échange les lignes
et les colonnes de A. L’équivalence (i) ⇐⇒ (iii) se déduit donc de l’équivalence (i) ⇐⇒ (ii).
Définition (Matrice triangulaire) Une matrice carrée est dite triangulaire supérieure (resp. inférieure) si ses coefficients
situés strictement au-dessous (resp. strictement au-dessus) de la diagonale sont nuls.
1 2 3 1 0 0
Exemple 0 4 5 est triangulaire supérieure et 2 4 0 est triangulaire inférieure.
0 0 6 3 5 6
Explication Nous avons montré dans ce chapitre qu’une matrice est inversible si et seulement si le système linéaire
associé à cette matrice possède une et une seule solution pour tout second membre. La caractérisation des matrices triangulaires
énoncée dans ce théorème est équivalente au principe suivant que nous avons massivement utilisé jusqu’ici : « Un système linéaire
triangulaire possède une et une seule solution si et seulement si ses coefficients diagonaux sont tous non nuls ».
Démonstration Nous pouvons nous contenter de travailler avec les matrices triangulaires supérieures ; le cas
des matrices triangulaires inférieures s’en déduit par transposition.
(i) Il est facile de montrer que l’ensemble des matrices triangulaires supérieures de taille n est un sous-espace
vectoriel de Mn (K). Il est en outre clair que In est triangulaire supérieure. Pour montrer que nous avons aussi
affaire à un sous-anneau, il nous reste à montrer que le produit de deux matrices triangulaires supérieures
est encore une matrice triangulaire supérieure.
Soient A, B ∈ Mn (K) triangulaires supérieures. Posons C = AB et montrons que C est triangulaire supé-
n
X
rieure. Soient i, j ∈ J1, nK tels que i > j. Alors cij = aik bkj . J’affirme que chacun des termes de cette
k=1
somme est nul. En effet, soit k ∈ J1, nK. Comme i > j, alors k < i ou k > j forcément. Dans le premier cas,
aik = 0 ; dans le second, bkj = 0. Dans les deux cas, on a donc aik bkj = 0 comme annoncé.
12
c Christophe Bertault - MPSI
Fixons T ∈ Mn+1 (K) triangulaire supérieure et notons T 0 la sous-matrice de T obtenue par suppression des
dernière ligne et dernière colonne. Alors T 0 ∈ Mn (K) est triangulaire supérieure. Pour tous X, Y ∈ Kn+1 :
t11 t12 t13 · · · t1,n+1 x1 y1
0 t22 t23 · · · t2,n+1 x 2 y2
0 0 t 33 · · · t 3,n+1 x3 = y3
Y = TX ⇐⇒
. .. .. .. .. . .
.. . . . . .. ..
0 0 0 · · · tn+1,n+1 xn+1 yn+1
t11 x1 + t12 x2 + . . . + t1,n+1 xn+1 = y1
t22 x2 + . . . + t2,n+1 xn+1 = y2
⇐⇒ ..
.
tn+1,n+1 xn+1 = yn+1
t11 x1 + t12 x2 + . . . + t1n xn = y1 − t1,n+1 xn+1
t22 x2 + . . . + t2n = y2 − t2,n+1 xn+1
⇐⇒ .. et tn+1,n+1 xn+1 = yn+1
.
tnn xn = yn − tn,n+1 xn+1
t11 t12 t13 · · · t1n x1 y1 − t1,n+1 xn+1
0 t22 t23 · · · t2n x2 y2 − t2,n+1 xn+1
0 0 t33 · · · t3n x3 = y3 − t3,n+1 xn+1 et tn+1,n+1 xn+1 = yn+1
⇐⇒
. . . . . . .
.. .. .. .. .. .. ..
0 0 0 · · · tnn xn yn − tn,n+1 xn+1
| {z } | {z }
X0 Y0
13
c Christophe Bertault - MPSI
(ii) Une matrice diagonale est inversible si et seulement si ses coefficients diagonaux sont tous non nuls. Plus précisément,
pour tout (λ1 , λ2 , . . . , λn ) ∈ Kn tel que λk 6= 0 pour tout k ∈ J1, nK :
1 1 1
diag(λ1 , λ2 , . . . , λn )−1 = diag , ,..., .
λ1 λ2 λn
1 2 3 0 1 −5
Exemple 2 5 0 est symétrique et −1 0 2 est antisymétrique.
3 0 6 5 −2 0
Remarquez bien ceci : la diagonale d’une matrice antisymétrique est nulle car chaque coefficient diagonal est égal à son opposé.
$ $ $ Attention !
• Le produit de deux matrices symétriques (resp. antisymétriques) n’a aucune raison d’être symétrique (resp. antisymétrique).
En effet, si A et B sont symétriques, alors t (AB) = t B t A = BA et ainsi t (AB) 6= AB en général.
1 1
• La matrice d’une symétrie (géométrique) n’est pas forcément symétrique ; ainsi la matrice est une symétrie de
0 −1
2
R car son carré vaut I2 , mais elle n’est pas symétrique.
De
la même manière toute matrice symétrique ne représente
pas
1 2 5 4
forcément une symétrie (géométrique) ; la matrice est symétrique mais son carré est la matrice 6= I2 .
2 1 4 5
Définition (Matrice de passage d’une base à une autre) Soient E un K-espace vectoriel et B et B0 deux bases de E.
On appelle matrice de passage de B à B0 la matrice Mat(B0 ) de B0 dans B.
B
14
c Christophe Bertault - MPSI
Théorème Soient E un K-espace vectoriel, B, B0 et B00 trois bases de E, P la matrice de passage de B à B0 et P 0 la matrice
de passage de B0 à B00 .
(i) P est inversible, P = Mat
0
(IdE ) et P −1 est la matrice de passage de B0 à B.
B ,B
Démonstration
(i) P est inversible comme matrice d’une base dans une autre base.
L’identité P = Mat (IdE ) découle de la définition de la matrice d’une application linéaire dans des bases.
B 0 ,B
−1
Il en résulte aussitôt que P −1 = Mat 0
Id E = Mat0 Id−1
E = Mat0 (IdE ), donc que P −1 est la matrice de
B ,B B,B B,B
passage de B0 à B.
(ii) P P 0 = Mat
0
(IdE ) × Mat
00 0
(IdE ) = Mat
00
(IdE ◦ IdE ) = Mat
00
(IdE ), donc P P 0 est bien la matrice de passage
B ,B B ,B B ,B B ,B
de B à B00 .
Théorème (Théorème du changement de base) Soient E et F deux K-espaces vectoriels, B et B0 deux bases de E, C
et C0 deux bases de F , P la matrice de passage de B à B0 et Q la matrice de passage de C à C0 .
(i) Version coordonnées : Soit x ∈ E. On pose X = Mat(x) et X 0 = Mat
0
(x). Alors : X = P X 0.
B B
(ii) Version matrice d’une application linéaire : Soit f une application linéaire de E dans F . On pose A = Mat(f )
B,C
et A0 = Mat
0 0
(f ). Alors : A0 = Q−1 AP .
B ,C
(i) En termes matriciels, l’égalité x = IdE (x) s’écrit, dans les bases adaptées, X = P X 0 .
(ii) C’est un simple calcul :
A0 = Mat
0 0
(f ) = Mat
0 0
Id−1
F ◦ f ◦ IdE = Mat
0
Id−1
F × Mat(f ) × Mat
0
(IdE )
B ,C B ,C C,C B,C B ,B
−1
= Mat
0
(IdF ) × Mat(f ) × Mat
0
(IdE ) = Q−1 AP.
C ,C B,C B ,B
15
c Christophe Bertault - MPSI
cos θ − sin θ cos θ − sin θ
(ii) Puisque est la matrice de passage de (~ı, ~) à (~
uθ , ~vθ ), la formule X = X0
sin θ cos θ sin θ cos θ
est démontrée. L’autre formule se démontre de la même manière ; on peut remarquer que la matrice de
−1
cos θ − sin θ cos θ sin θ
passage de (~
uθ , ~vθ ) à (~ı, ~) est = .
sin θ cos θ − sin θ cos θ
Définition (Matrices semblables) Soient A, B ∈ Mn (K). On dit que B est semblable à A (dans Mn (K)) s’il existe une
matrice inversible P ∈ GLn (K) telle que B = P −1 AP .
Exemple Soient E un K-espace vectoriel de dimension finie, f ∈ L(E) et B et B0 deux bases de E. Alors Mat
0
(f ) est
B
semblable à Mat(f ) puisque comme on l’a vu, si P désigne la matrice de passage de B à B0 : Mat
0
(f ) = P −1 Mat(f )P .
B B B
Théorème (Propriétés de la relation de similitude) La relation de similitude sur Mn (K) est réflexive, symétrique et
transitive.
Démonstration
• Réflexivité : Soit A ∈ Mn (K). Alors A est semblable à A car In est inversible et A = In−1 AIn .
• Symétrie : Soient A, B ∈ Mn (K). On suppose B semblable à A. Il existe donc P ∈ GLn (K) telle que
−1
B = P −1 AP . Alors P − est inversible et A = P −1 BP −1 , de sorte que A est semblable à B.
• Transitivité : Soient A, B, C ∈ Mn (K). On suppose B semblable à A et C semblable à B. Il existe
donc P, Q ∈ GLn (K) telles que B = P −1 AP et C = Q−1 BQ. Alors P Q est inversible par produit et
C = Q−1 BQ = Q−1 P −1 AP Q = (P Q)−1 A(P Q), donc C est semblable à A.
Définition (Rang d’une matrice) Soit A ∈ Mn,p (K). Le rang de A, vue comme application linéaire de Kp dans Kn , est
égal au rang de la famille des colonnes de A dans Kn .
On appelle rang de A, noté rg(A), la valeur commune de ces deux notions de rang.
Remarque Soit A ∈ Mn,p (K). Si A possède une colonne nulle, et si A0 est la matrice obtenue à partir de A après suppression
de cette colonne nulle, alors rg(A) = rg(A0 ).
En effet Le rang de A est la dimension du sous-espace vectoriel de Kn engendré par les colonnes de A. Or
dans un Vect, on peut toujours se défaire des vecteurs nuls. C’est pourquoi le rang de A est conservé quand on
supprime une colonne nulle de A.
Corollaire (Rang et inversibilité) Soit A ∈ Mn (K). Les assertions suivantes sont équivalentes :
(i) A est inversible. (ii) rg(A) = n.
Démonstration
A est inversible ⇐⇒ La famille des colonnes de A est une base de Kn
⇐⇒ La dimension du sous-espace vectoriel de Kn engendré par les colonnes de A est n
⇐⇒ rg(A) = n.
16
c Christophe Bertault - MPSI
Théorème (Relation entre les différentes notions de rang) Soient E et F deux K-espaces vectoriels de dimension finie,
B une base de E et C une base de F .
(i) Soit F une famille (finie) de vecteurs de E. Alors : rg Mat(F) = rg(F).
B
(ii) Soit f une application linéaire de E dans F . Alors : rg Mat(f ) = rg(f ).
B,C
En pratique Ce théorème montre que tout rang (famille de vecteurs ou application linéaire) peut être calculé
comme le rang d’une matrice. Or le calcul d’un rang fournit de précieux renseignements. Par exemple, nous avons démontré les
équivalences suivantes, dans notre chapitre sur les espaces vectoriels de dimension finie :
1) f est injective si et seulement si rg(f ) = dim E. 2) f est surjective si et seulement si rg(f ) = dim F .
N’oubliez pas également le précieux théorème du rang. Nous étudierons bientôt une technique de calcul rapide et simple du rang.
Démonstration
(i) Introduisons les vecteurs de B et F : B = (e1 , e2 , . . . , en ) et F = (f1 , f2 , . . . , fp ), ainsi que les colonnes
C1 , C2 , . . . , Cp de Mat(F) dans l’ordre naturel.
B
Kn −→ E
n
Notons en outre ϕ l’isomorphisme bien connu X — B est une base de E. Alors
(λk )16k6n
7−→ λk e k
k=1
ϕ(Ck ) = fk pour tout k ∈ J1, pK puisque Ck est la colonne des coordonnées de fk dans B.
Or ϕ induit par restriction
un
isomorphisme de Vect(C1 , C2 , . . . , Cp ) sur Vect(f1 , f2 , . . . , fp ) = Vect(F).
En particulier : rg Mat(F) = rg(C1 , C2 , . . . , Cp ) = dim Vect(C1 , C2 , . . . , Cp ) = dim Vect(F) = rg(F).
B (i)
(ii) rg Mat(f ) = rg Mat f (B) = rg f (B) = dim Vect f (B) = dim Im f = rg(f ).
B,C C
Démonstration Pour prouver (i), considérons chaque matrice comme une application linéaire. Alors tout
matrice P ∈ GLp (K) est un automorphisme de Kp et toute matrice Q ∈ GLn (K) est un automorphisme de Kn . Or
nous savons que le rang d’une application linéaire n’est pas modifié quand on compose cette application par un
automorphisme. Ici, avec des matrices, composer revient à faire un produit. Le résultat s’en déduit aussitôt.
Théorème (Décomposition U Jn,p,r V d’une matrice) Soit A ∈ Mn,p (K). On note r le rang de A. Il existe alors deux
matrices U ∈ GLn (K) et V ∈ GLp (K) telles que A = U Jn,p,r V , où Jn,p,r est la matrice de taille n × p suivante :
r colonnes
z }| {
1
..
.
1
Jn,p,r = , les positions vides de cette matrice étant à compléter par des 0.
0
..
.
0
Démonstration
• Considérons A comme une application linéaire de Kp dans Kn et notons I un supplémentaire de Ker A dans
Kp . Fixons en outre une base B = (e1 , e2 , . . . , ep ) de Kp dont les r premiers vecteurs forment une base de I
et les (p − r) suivants une base de Ker A.
• Nous savons que A induit par restriction un isomorphisme de I sur Im A. Par conséquent l’image de la base
(e1 , e2 , . . . , er ) de I par A est une base de Im A que nous notons (f1 , f2 , . . . , fr ). Complétons cette base de
Im A en une base C = (f1 , f2 , . . . , fn ) de Kn .
17
c Christophe Bertault - MPSI
• La matrice de A dans les bases B et C est alors la matrice Jn,p,r , comme on s’en convainc aisément en
écrivant cette matrice. Notons alors Bp et Bn les bases canoniques respectives de Kp et Kn , V la matrice
de passage de B à Bp et U la matrice de passage de Bn à C. La formule de changement de base pour les
applications linéaires donne ceci :
A = Mat (A) = Mat IdKn × Mat(A) × Mat IdKp = U × Mat(A) × V = U Jn,p,r V.
B p ,B n C,B n B,C B p ,B B,C
On obtient Jn,p,r en calculant tout simplement Mat(A). Il suffit de remarquer que A(ek ) = fk pour tout
B,C
k ∈ J1, rK, et que A(ek ) = 0Kn pour k ∈ Jr + 1, pK.
Corollaire (Invariance du rang par transposition) Soit A ∈ Mn,p (K). Alors : rg t A = rg(A).
6.1 Définition
Définition (Opérations élémentaires sur les lignes et les colonnes) On appelle opération élémentaire sur les lignes
d’une matrice les opérations suivantes :
• permutation des ième et j ème lignes, notée Li ↔ Lj ;
ème
• multiplication de la i ligne par le scalaire λ 6= 0, notée Li ← λLi ;
ème ème
• addition de la j ligne multipliée par le scalaire λ à la i ligne (avec i 6= j), notée Li ← Li + λLj .
On définit de même la notion d’opération élémentaire sur les colonnes d’une matrice. Les notations associées sont respectivement
Ci ↔ Cj , Ci ← λCi et Ci ← Ci + λCj .
Théorème (Opérations élémentaires = multiplication par certaines matrices inversibles) Soit A ∈ Mn,p (K).
Si, au lieu de multiplier à gauche, on multiplie A à droite par les matrices décrites ci-dessus, on obtient une simulation des
opérations élémentaires sur les colonnes, respectivement : Ci ↔ Cj , Ci ← λCi et Cj ← Cj + λCi — à condition de faire
varier i et j dans J1, pK et non plus dans J1, nK.
18
c Christophe Bertault - MPSI
Opération élémentaire sur les lignes = Multiplication à gauche
$ $ $ Attention ! .
Opération élémentaire sur les colonnes = Multiplication à droite
Démonstration La matrice associée à l’opération élémentaire Li ↔ Lj est inversible car son carré vaut In
— c’est une symétrie. Quant aux matrices associées aux opérations élémentaires Li ← λLi et Li ← Li + λLj ,
elle sont triangulaires à coefficients diagonaux tous non nuls, donc inversibles.
Démonstration
(i) Les opérations élémentaires ne sont que des multiplications par des matrices inversibles, donc préservent
le rang.
(ii) Nous avons déjà prouvé le résultat de l’assertion (ii) pour les colonnes. Le cas des lignes s’en déduit par
transposition, le rang étant invariant par transposition.
En pratique Décrivons à présent comment l’algorithme du pivot de Gauss peut être utilisé pour calculer rapidement
le rang d’une matrice. Partons d’une matrice A ∈ Mn,p (K). Chaque étape de l’algorithme ramène le calcul du rang de A au
calcul du rang d’une matrice de taille strictement plus petite.
0) Si A = 0, alors rg(A) = 0 — sortie de l’algorithme.
1) Sinon au moins un coefficient de A est non nul. En permutant les lignes et les colonnes de A, on se ramène au
calcul du rang d’une matrice de même rang que A dont le coefficient a de position (1, 1) est non nul. Ce coefficient a est
alors qualifié de pivot.
2) A l’aide du pivot a, on annule par des opérations élémentaires sur les lignes tous les termes de la première colonne
de la matrice obtenue à l’issue de l’étape 1) (à l’exception du pivot).
3) Toujours à l’aide du pivot a, on annule ensuite par des opérations élémentaires sur les colonnes tous les termes de
la première ligne de la matrice obtenue à l’issue de l’étape 2) (à l’exception du pivot).
4) La première colonne de la matrice obtenue à l’issue de l’étape 3) est clairement non combinaison linéaire des
autres colonnes de cette matrice. Ceci explique le résultat de l’étape 4) figuré ci-dessous.
Finalement, on reprend les étapes 0) à 4) avec la matrice A0 . L’algorithme se termine avec certitude car A0 est strictement
plus petite que A de par sa taille.
0 0 1 3
1 0 −1 2
Exemple 0
rg 0 1 2
= 4.
−2 4 −4 1
−1 0 3 0
19
c Christophe Bertault - MPSI
En effet
0 0 1 3 0 0 1 3 4 −2 −4 1
1 0 −1 2 0 1 −1 2 0 1 −1 2
0 0 1 = rg 0
2 0 1 2
rg C 1 ↔ C 2 = rg 0 0 1 2 L1 ↔ L4
−2 4 −4 1 4 −2 −4 1 0 0 1 3
−1 0 3 0 0 −1 3 0 0 −1 3 0
1 −1 2 1 −1 2
0 1 2 0 1 2
= 1 + rg
0
= 1 + rg
1 3 0 1 3
1 1
−1 3 0 0 1 1 L4 ← L1 + L4
2 2
1 2
= 2 + rg 1 3 = 2 + 2 = 4 car les deux vecteurs de R3 obtenus sont clairement non colinéaires.
1 1
• Supposons qu’on puisse ramener A à la matrice In par des opérations élémentaires uniquement sur les lignes de A. Si k
opérations élémentaires sont nécessaires, et si chaque opération élémentaire est représentée par une matrice Pi , i ∈ J1, kK, on
a donc : Pk Pk−1 . . . P1 A = In , les opérations élémentaires sur les lignes correspondant à des multiplications matricielles
à gauche. Bref, si P est la matrice Pk Pk−1 . . . P1 , alors P A = In . Dans ces conditions, on a montré que A est inversible
et que P = A−1 , ou encore A−1 = Pk Pk−1 . . . P1 × In ; A−1 s’obtient donc à partir de la matrice In à partir des mêmes
opérations qui nous ont fait passer de A à In , dans le même ordre.
• Réciproquement, nous admettrons que, si A inversible, alors on peut ramener A à la matrice In par des opérations
élémentaires uniquement sur les lignes. La preuve de ce résultat n’est pas difficile, mais ne perdons pas de temps : les
exemples donnés ci-dessous vous suffiront amplement.
Et concrètement, comment on fait ? Facile, on écrit A et In côte à côte. Ensuite on fait subir les mêmes opérations élémentaires
aux lignes de ces deux matrices, guidés par le souci de transformer A en In . Si cela est possible, alors A est inversible, et dans
ce cas In a été transformée en A−1 . Le tour est joué.
$ $ $ Attention ! Il est impératif que vos opérations élémentaires se fassent ici toutes sur les lignes — ou bien toutes sur
les colonnes, c’est également possible. Les mélanges sont interdits !
1 0 2 −3 4 2
Exemple La matrice A = 1 −1 2 est inversible d’inverse A−1 = 1 −1 0 .
0 2 −1 2 −2 −1
En effet Introduisez toujours vos calculs par une petite phrase rituelle d’explication. Par exemple : nous allons
faire subir aux matrices A et In les mêmes opérations élémentaires sur les lignes jusqu’à obtenir, si possible, In à
la place de A ; c’est alors A−1 que nous trouverons à la place de In .
1 0 2 1 0 0
A = 1 −1 2 In = 0 1 0
0 2 −1 0 0 1
1 0 2 1 0 0
0 1 0 1 −1 0 L2 ← L1 − L2
0 2 −1 0 0 1
1 0 2 1 0 0
0 1 0 1 −1 0
0 0 1 2 −2 −1 L3 ← 2L2 − L3
1 0 0 −3 4 2 L1 ← L1 − 2L3
In = 0 1 0 A−1 = 1 −1 0
0 0 1 2 −2 −1
20
c Christophe Bertault - MPSI
1 0 2
Exemple La matrice A = −1 −3 1 n’est pas inversible.
0 1 −1
En effet Nous allons faire subir aux matrices A et In les mêmes opérations élémentaires sur les lignes jusqu’à
obtenir, si possible, In à la place de A ; c’est alors A−1 que nous trouverons à la place de In .
1 0 2 1 0 0
A = −1 −3 1 In = 0 1 0
0 1 −1 0 0 1
1 0 2 1 0 0
0 −3 3 1 1 0 L2 ← L1 + L2
0 1 −1 0 0 1
1 0 2 1 0 0
0 −3 3 1 1 0
0 0 0 1 1 3 L3 ← L2 + 3L3
Aïe ! Dans la partie gauche de la matrice, nous avons transformé A en une matrice possédant une ligne nulle par
des opérations élémentaires. Les opérations élémentaires étant des opérations inversibles, cela montre que A n’est
pas inversible. Ici, le travail sur la matrice In à droite était donc inutile.
Définition (Système linéaire homogène) On appelle système linéaire homogène associé à (S) ou système linéaire sans
second membre associé à (S) le système linéaire AX = 0 d’inconnue X ∈ Kp .
Définition (Rang d’un système linéaire) On appelle rang de (S) le rang de la matrice A.
Démonstration
(i) Par définition, S n’est autre que le noyau de A vue comme application linéaire de Kp dans Kn ; S est donc
un sous-espace vectoriel de Kp . Le théorème du rang nous fournit dim S :
dim S = dim Ker A = dim Kp − rg(A) = p − rg(A).
(ii) Supposons l’existence d’une solution X0 de (S). On montre alors aisément que l’ensemble des solutions de
(S) est l’ensemble X0 + S, sous-espace affine de Kp .
Définition (Système de Cramer) On dit que (S) est de Cramer si A est inversible (n = p nécessairement).
Théorème (Résolution d’un système de Cramer) Si (S) est de Cramer, (S) admet A−1 B comme unique solution.
Démonstration Résultat déjà démontré dans notre paragraphe sur les matrices inversibles.
21