Académique Documents
Professionnel Documents
Culture Documents
Explication Dans le titre de ce paragraphe, le mot « scalaire » signifie « nombre réel ou complexe ». Nous l’utili-
serons quotidiennement dans quelques temps quand nous ferons de l’algèbre linéaire.
Explication
• À vrai dire, une matrice M de taille n×p à coefficients dans K n’est jamais qu’un élément de K¹1,nº×¹1,pº , i.e. une famille
(mi j )(i, j)∈¹1,nº×¹1,pº d’éléments de K indexée par ¹1, nº × ¹1, pº, c’est-à-dire encore une application (i, j) 7−→ mi j de
¹1, nº × ¹1, pº dans K. En résumé : Mn,p (K) = K¹1,nº×¹1,pº .
• L’usage veut qu’on utilise le plus possible la lettre i pour indice des lignes et la lettre j pour indice des colonnes.
• Par convention dans ce cours, si A (majuscule) est une matrice de taille n × p, nous noterons généralement ai j (mi-
nuscule) le coefficient de A de position (i, j) — mais parfois aussi Ai j .
1 4
i 0
Exemple La matrice 2
5 est réelle de taille 3 × 2, la matrice est carrée complexe de taille 2.
2 3+i
3 6
Définition (Addition matricielle et multiplication par un scalaire) Pour tous A, B ∈ Mn,p (K) et λ, µ ∈ K, on note
λA + µB la matrice :
λa11 + µb11 · · · λa1p + µb1p
.. ..
λA + µB = . .
, appelée une combinaison linéaire de A et B.
λan1 + µbn1 · · · λanp + µbnp
2 1 1 1 4 1
Exemple 3 −2 = .
0 4 −2 3 4 6
1
Christophe Bertault — Mathématiques en MPSI
Définition (Produit matriciel)
b11 ··· b1r
Pour tous A ∈ M p,q (K) et B ∈ Mq,r (K), on note A × B
q
X . ..
.. .
ou AB la matrice aik bk j de taille p × r.
1¶i¶p
k=1
1¶ j¶r
Produit
bq1 ··· bqr
et somme
q
X q
X
a11 ··· a1q a1k bk1 ··· a1k bkr
k=1
k=1
.. ..
.. ..
. . . .
Xq q
X
a p1 ··· a pq ···
a pk bk1 a pk bkr
k=1 k=1
2 1 4 −1 5
1 1 0 1
Exemple 3 × = 7 −3 10.
2 −1 3
2 0 2 0 2
$ ATTENTION ! $
• Le produit de deux matrices en général n’est pas défini s’il n’y a pas, comme on dit, compatibilité des formats :
Cas particulier remarquable, le monde Mn (K) des matrices carrées de taille n est du coup stable par produit :
Le produit de deux matrices carrées de taille n est encore une matrice carrée de taille n.
• Le produit matriciel n’est pas commutatif — même en cas de compatibilité des formats ! Exemple :
1 1 0 0 1 0 0 0 0 0 1 1
= 6 = = .
0 1 1 0 1 0 1 1 1 0 0 1
0 1 1 1 0 0
• Un produit de matrices peut être nul sans qu’aucune d’entre elles le soit. Exemple : = .
0 0 0 0 0 0
2
0 1 0 0
En particulier, une puissance de matrice non nulle peut être nulle : = .
0 0 0 0
Théorème (Produit matriciel et lignes/colonnes) Soient A ∈ Mn,p (K), i ∈ ¹1, nº et j ∈ ¹1, pº.
0
..
.
A × 1 est la « j ème colonne de A ». 0 · · · 1 · · · 0 × A est la « i ème ligne de A ».
.
position j . position i
.
0 p
X
Plus généralement, si nous notons C1 , . . . , C p les colonnes de A, alors pour tout X ∈ M p,1 (K) : AX = x k Ck .
k=1
Démonstration Simple calcul ! Il faut que ce petit résultat coule dans vos veines.
Par convention, quand une matrice contient beaucoup de zéros, on omet souvent de les noter par souci de lisibilité.
2
Christophe Bertault — Mathématiques en MPSI
Exemple Soit M ∈ Mn (K). Si on note σ la somme de tous les éléments de M et J la matrice carrée de taille n dont tous
les coefficients sont égaux à 1, alors : J M J = σJ .
Démonstration Simple vérification !
À présent, pour une simple raison de compatibilité des formats, une matrice ne peut être multipliée avec elle-même que
si elle est carrée. Pour une telle matrice A ∈ Mn (K), on peut ainsi parler des puissances de A :
Ak = A
| × A×
{z. . . × A
} pour tout k ∈ N∗ et A0 = I n .
k fois
1 ··· 1
. ..
Exemple On pose : J = .. . — matrice carrée de taille n. Pour tout k ∈ N∗ : J k = nk−1 J .
1 ··· 1
Démonstration Remarquer d’abord que : J 2 = nJ , puis raisonner par récurrence.
Démonstration Même preuve qu’en début d’année avec des nombres complexes.
$ ATTENTION ! $ L’hypothèse selon laquelle A et B commutent est essentielle, c’est déjà très clair pour k = 2 :
AB=BA AB=BA
(A+ B)2 = (A+ B)(A+ B) = A2 + AB + BA+ B 2 = A2 + 2AB + B 2 et (A+ B)(A− B) = A2 − AB + BA− B 2 = = A2 − B 2 .
1 1 2 1 k 2k
Exemple On pose : A = 0 1 0 . Pour tout k ∈ N : Ak = 0 1 0 .
0 0 1 0 0 1
0 1 2
Démonstration Écrivons : A = I3 + J avec : J = 0 0 0. Bien sûr, I3 et J commutent car I3
0 0 0
commute avec toute matrice carrée de taille 3, et par ailleurs : J 2 = 0, donc : Ji = 0 pour tout i ¾ 2.
Xk 1 k 2k
k i k−i
Finalement, pour tout k ∈ N : Ak = I3 J = I3 + kJ = 0 1 0 .
i=0
i 0 0 1
3
Christophe Bertault — Mathématiques en MPSI
Théorème (Produit par blocs) Soient A, B, C, D, A′ , B ′ , C ′ , D′ des MATRICES à coefficients dans K de tailles indiquées
ci-dessous. q q′ r r′
p A C q A′ C ′ AA′ + C B ′ AC ′ + C D′
× =
p′ B D q′ B ′ D′ BA′ + DB ′ BC ′ + DD′
Explication En résumé, tout se passe avec les blocs comme si chacun d’entre eux était un scalaire.
1.3 TRANSPOSITION
Définition (Transposée) Soit A ∈ Mn,p (K). On appelle transposée de A la matrice (a ji )1¶i¶p de M p,n (K), que l’on note
1¶ j¶n
t
A ou AT .
t
t 3 5 λ1
3 0 1
Exemple = 0 2 et pour tous λ1 , . . . , λn ∈ C : .. = λ1 · · · λn .
5 2 7 .
1 7 λn
Démonstration Seule l’assertion sur le produit mérite une preuve, or pour tout (i, j) ∈ ¹1, rº × ¹1, pº :
q
X q
X q
X
t
t
t
(AB) ij
= (AB) ji = a jk bki = bki a jk = B ik
A k j = t Bt A i j .
k=1 k=1 k=1
1 2 3 0 1 −5
Exemple 2 5 0 est symétrique et −1 0 2 est antisymétrique.
3 0 6 5 −2 0
Diagonale nulle
car tout coefficient diagonal
est égal à son opposé.
4
Christophe Bertault — Mathématiques en MPSI
Explication Les matrices diagonales sont exactement les matrices à la fois triangulaires supérieures ET triangu-
laires inférieures. En outre, pour tous α1 , . . . , αn , β1 , . . . , βn , λ, µ ∈ K :
α1 β1 λα1 + µβ1
• Combinaisons linéaires : λ .. + µ .. = .. .
. . .
αn βn λαn + µβn
α1 β1 α1 β1
• Produit : . .. . .. = .. .
.
αn βn αn βn
Ces résultats sur les matrices diagonales se généralisent en fait aux matrices triangulaires supérieures (resp. inférieures)
comme le montre le théorème suivant.
Théorème (Combinaisons linéaires et produit de matrices triangulaires) Toute combinaison linéaire et tout produit
de matrices triangulaires supérieures (resp. inférieures) est encore une matrice triangulaire supérieure (resp. inférieure).
Démonstration Nous nous contenterons du cas des matrices triangulaires supérieures — le cas inférieur s’en
déduit par transposition. Soient donc A, B ∈ Mn (K) triangulaires supérieures et λ, µ ∈ K. Les matrices λA + µB
et AB sont triangulaires supérieures car pour tous i, j ∈ ¹1, nº tels que i > j :
X
n X
i−1 X
n
(λA + µB)i j = λ ai j +µ bi j = 0 et (AB)i j = aik bk j = aik bk j + aik bk j = 0.
|{z} |{z} |{z} |{z}
k=1 k=1 k=i
=0 =0 =0 =0
La notion de trace vous paraîtra un peu anecdotique pour le moment mais elle est en fait importante, alors autant
l’introduire tout de suite.
Définition-théorème (Trace d’une matrice carrée) Soit A ∈ Mn (K). On appelle trace de A et on note tr(A) ou Tr(A) la
somme des éléments diagonaux de A.
(i) Linéarité : Pour tous A, B ∈ Mn (K) et λ, µ ∈ K : tr(λA + µB) = λtr(A) + µtr(B).
(ii) Effet sur un produit : Pour toutes matrices A, B ∈ Mn (K) : tr(AB) = tr(BA).
Démonstration
X
n X
n X
n
(i) tr(λA + µB) = (λakk + µbkk ) = λ akk + µ bkk = λtr(A) + µtr(B).
k=1 k=1 k=1
X
n X
n X
n Xn X
n X
n
(ii) tr(AB) = (AB)kk = akl blk = blk akl = (BA)ll = tr(BA).
k=1 k=1 l=1 l=1 k=1 l=1
5
Christophe Bertault — Mathématiques en MPSI
2 SYSTÈMES LINÉAIRES
• Tout système linéaire peut être écrit sous forme matricielle. Par exemple, pour tout (x, y, z) ∈ R3 :
2x + y − 3z = 3 2 1 −3 x 3
5y + z = 2 ⇐⇒ 0 5 1 y = 2 .
9x + 10 y + 2z = 1 9 10 2 z 1
Nous aurons désormais tendance à identifier toute famille de n éléments de K à une COLONNE, i.e. à considérer que :
Kn = Mn,1 (K). Plus généralement, pour tous A ∈ Mn,p (K) et B ∈ Kn = Mn,1 (K), le système linéaire :
a11 x 1 + a12 x 2 + ··· + a1p x p = b1
a21 x 1 + a22 x 2 + ··· + a2p x p = b2
.. .. .. ..
. . . .
an1 x 1 + an2 x 2 + ··· + anp x p = bn ,
d’inconnue X ∈ K p = M p,1 (K) peut être écrit matriciellement : AX = B. On appelle alors A la matrice du système
et B son second membre, et on dit que le système est homogène si : B = 0, i.e. si : b1 = . . . = bn = 0.
• Pour toute matrice A ∈ Mn,p (K), l’application X 7−→ AX de K p = M p,1 (K) dans Kn = Mn,1 (K) est linéaire au sens
que nous avons donné à ce terme au début du chapitre « Équations différentielles et suites récurrentes linéaires », à
savoir que pour tous X , Y ∈ K p et λ, µ ∈ K : A(λX + µY ) = λ(AX ) + µ(AY ). Tout système linéaire est donc en ce
sens une « équation linéaire ». Le résultat suivant en découle.
Théorème (Structure de l’ensemble des solutions d’un système linéaire) Soient A ∈ Mn,p (K) et B ∈ Kn . On
s’intéresse au système linéaire : AX = B d’inconnue X ∈ K p . Deux situations peuvent se présenter :
— soit ce système n’a pas de solution, on dit qu’il est incompatible,
— soit il en a, on dit qu’il est compatible. Elles sont dans ce cas soumises au principe bien connu suivant :
Démonstration Rappelons brièvement la raison de ce résultat. Dans le cas où le système étudié possède une
solution X part , alors pour tout X ∈ K p :
AX = B ⇐⇒ AX = AX part ⇐⇒ A X − X part = 0
⇐⇒ X − X part est une solution du système HOMOGÈNE associé
⇐⇒ X est la somme de la solution particulière X part
et d’une solution du système HOMOGÈNE associé.
§
x + y = 1
Exemple Le système linéaire : d’inconnue (x, y) ∈ R2 n’a pas de solution.
x + y = 0
Définition (Notation Vect) Soient X 1 , . . . , X r ∈ Kn . L’ensemble des combinaisons linéaires de X 1 , . . . , X n est noté
Vect(X 1 , . . . , X r ). Concrètement : Vect(X 1 , . . . , X r ) = λ1 X 1 + . . . + λ r X r λ ,...,λ ∈K .
1 r
¦ ©
Exemple Dans R2 : Vect (2, 3) = (2x, 3x) x∈R et Vect (1, 0), (0, 1) = x(1, 0) + y(0, 1) = (x, y) x, y∈R = R2 .
x, y∈R
¦ © ¦ ©
Dans R3 : Vect (1, 2, 0), (1, 0, 1) = x(1, 2, 0) + y(1, 0, 1) = (x + y, 2x, y) .
x, y∈R x, y∈R
6
Christophe Bertault — Mathématiques en MPSI
La notation Vect permet une expression agréable de l’ensemble des solutions d’un système linéaire. Désormais, c’est ainsi
et ainsi seulement que je veux vous voir conclure vos résolutions de systèmes linéaires — par la donnée d’un Vect.
§
x + 2y − z = 1
Exemple Les solutions du système linéaire : d’inconnue (x, y, z) ∈ R3 sont tous les
2x + 5y + z = 2
triplets (7λ + 1, −3λ, λ), λ décrivant R. Leur ensemble peut aussi être noté : (1, 0, 0) + Vect (7, −3, 1) .
| {z } | {z }
Solution Ensemble
particulière des solutions de
Démonstration Pour tout (x, y, z) ∈ R3 : l’équation homogène
§ §
x + 2y − z = 1 x + 2y − z = 1
⇐⇒
2x + 5y + z = 2 y + 3z = 0 L 2 ← L 2 − 2L 1
§
x = 1 + 7z
⇐⇒
y = −3z.
Explication (Interprétation géométrique d’un Vect) Deux exemples vaudront ici mieux qu’un long discours.
Ve
ct −
→
u, −
→
−
→
u −
→
v → −
− →
u Vect v , w
b
b
−
→
w
u
→
ct −
−
→
Ve
Explication (Droites du plan) On travaille ici dans un plan muni d’un repère orthonormal O, −
→ı ,−
→ .
Dans le plan, toute droite possède une équation de la forme : ax + b y + c = 0 avec a, b, c ∈ R et : (a, b) 6= (0, 0).
• Le vecteur −
→
n de coordonnées (a, b) est alors VECTEUR NORMAL d’une telle droite D. En effet, si nous notons A un
point de D de coordonnées (x A, yA), alors pour tout point M de coordonnées (x, y) :
ax A +b yA +c=0
M ∈D ⇐⇒ ax + b y + c = 0 ⇐⇒ a(x − x A) + b( y − yA) = 0
a x − xA −
→ −→
⇐⇒ · =0 ⇐⇒ n · AM = 0
b y − yA
a
⇐⇒ M appartient à la droite passant par A orthogonale à −
→
n. −
→
b
Rappelons maintenant ci-contre un petit principe important de géométrie analytique plane.
D’après ce principe, la droite D, ORTHOGONALE au vecteur − →n de coordonnées (a, b), est en
b
−b O − → a
revanche DIRIGÉE par le vecteur de coordonnées (−b, a). ı
§
ax + b y = c
• À présent, l’ensemble des solutions d’un système linéaire : avec a, b, c, a′ , b′ , c ′ ∈ R,
a ′ x + b′ y = c ′
(a, b) 6= (0, 0) et (a′ , b′ ) 6= (0, 0) est géométriquement l’intersection de deux droites D et D ′ , i.e. :
7
Christophe Bertault — Mathématiques en MPSI
−→
Explication (Plans de l’espace) On travaille ici dans l’espace muni d’un repère orthonormal O, −
→ı ,−
→, k .
Dans l’espace, tout plan possède une équation de la forme : a x + b y + cz + d = 0 avec a, b, c, d ∈ R et : (a, b, c) 6= (0, 0, 0).
• Le vecteur de coordonnées (a, b, c) est VECTEUR NORMAL d’un tel plan pour une raison analogue à celle que nous
avons vue pour les droites dans le plan.
§
a x + b y + cz = d
• L’ensemble des solutions du système linéaire : avec a, b, c, d, a′ , b′ , c ′ , d ′ ∈ R,
a ′ x + b′ y + c ′ z = d ′
(a, b, c) 6= (0, 0, 0) et (a′ , b′ , c ′ ) 6= (0, 0, 0) est géométriquement l’intersection de deux plans P et P ′ , i.e. :
— soit un plan si : P = P ′,
— soit l’ensemble vide si P et P ′ sont parallèles sans être confondus,
— soit une droite sinon, i.e. si P et P ′ sont sécants.
Si on ajoute une troisième équation : a′′ x + b′′ y + c ′′ z = d ′′ au système, une nouvelle possibilité apparaît, celle
d’un point — intersection de trois plans en position générale.
§
x + 2y + z = 5
Exemple Les solutions du système linéaire : d’inconnue (x, y, z) ∈ R3 sont tous les
3x + y − 2z = 0
triplets (−1 + λ, 3 − λ, λ), λ décrivant R. Leur ensemble peut aussi être noté : (−1, 3, 0) + Vect (1, −1, 1) .
| {z } | {z }
Géométriquement, cet ensemble est la droite de l’espace passant par Solution Ensemble
le point de coordonnées (−1, 3, 0) et dirigée par le vecteur de coor- particulière des solutions de
données (1, −1, 1). l’équation homogène
Démonstration Pour tout (x, y, z) ∈ R3 :
§ §
x + 2y + z = 5 x + 2y + z = 5
⇐⇒
3x + y − 2z = 0 5y + 5z = 15 L 2 ← 3L 1 − L 2
§
x + 2y + z = 5
⇐⇒ 1
y + z = 3 L2 ← 5 L2
§
x = −1 + z
⇐⇒
y = 3 − z.
A −
→
u
illustre ci-contre la signification géométrique du paramètre λ.
8
Christophe Bertault — Mathématiques en MPSI
Explication Les opérations élémentaires préservent les équivalences, donc ne modifient pas l’ensemble des so-
lutions d’un système linéaire, car on peut toujours les défaire. L’opération : L1 ↔ L2 se défait elle-même par exemple,
1
l’opération : L1 ← 2L1 est défaite par l’opération : L1 ← L1 et l’opération : L2 ← L2 + L1 par l’opération :
2
L2 ← L2 − L1.
$ ATTENTION ! $ Pour résoudre un système linéaire, C ’EST FINI LES SUBSTITUTIONS ! Plus jamais !
En pratique (Algorithme du pivot) Nous résoudrons désormais tous nos systèmes linéaires au moyen d’un
algorithme appelé l’algorithme du pivot. Vous ne l’aimerez peut-être pas trop au début — conservateurs que vous êtes —
mais vous comprendrez vite à l’usage que les substitutions sont une mauvaise méthode de résolution.
• • • • • = •
Nous présenterons cet algorithme sous forme figurée en partant d’un système quelconque : • • • • • = •
• • • • • = •
Le nombre d’équations et le nombre d’inconnues n’ont pas d’importance, c’est le principe de l’algorithme qu’il faut com-
prendre et retenir. Chaque point « • » représente un coefficient du système, éventuellement 0. Nous allons faire disparaître
progressivement ces coefficients en les annulant et obtenir finalement une nouvelle forme dite échelonnée du système étudié.
• Étape 1 : On choisit dans le système un coefficient non nul Ø appelé pivot — bien sûr, si tous les coefficients sont
nuls, le système est résolu ! S’il n’y est pas déjà, on peut toujours placer ce pivot en position (1, 1) en permutant deux
équations et/ou deux inconnues. Le système initial :
Le pivot
• • • • • = • Ø • • • • = •
• • • • • = • devient ainsi : • • • • • = •
• Ø • • • = • • • • • • = •
après une éventuelle opération : L i ↔ L j et un éventuel échange d’inconnues. Dans la mesure du possible,
privilégiez un coefficient de pivot de valeur 1, vos calculs ultérieurs s’en trouveront simplifiés.
• Étape 2 : Grâce au pivot, on annule par des opérations : L i ← L i +λi L1 Ø • • • • = •
tous les coefficients de la première colonne sous le pivot. Si une ligne Résultat : • • • • = •
• • • • = •
nulle apparaît à cette étape, on la supprime sans ménagement.
• Reprise des étapes 1 et 2 : On reprend les étapes 1 et 2 avec le sous-système obtenu par oubli de la ligne 1. Le
système :
Le nouveau pivot
Ø • • • • = • Ø • • • • = • Ø • • • • = •
• • • • = • devient donc : Ø • • • = • puis : Ø • • • = •
• • • Ø = • • • • • = • • • • = •
Ø • • • • = •
et on recommence. Le résultat final est appelé une forme échelonnée du système : Ø • • • = •
Ø • • = •
• Remontée : On annule à présent tous les coefficients situés au-dessus des symboles Ø. La méthode est la même que
précédemment, on utilise les pivots et des opérations : L i ← L i + λi L j . Le système échelonné :
Ø • • • • = • Ø • • • = • Ø • • = •
Ø • • • = • devient : Ø • • = • puis : Ø • • = •
Ø • • = • Ø • • = • Ø • • = •
Et c’est fini ! Sur l’exemple choisi, on peut exprimer les inconnues 1, 2 et 3 en fonction des inconnues 4 et 5, ce qui
achève la résolution du système.
x − y + z + t = 2
Exemple Les solutions du système linéaire : 2x − y + 3z + t = 3 d’inconnue (x, y, z, t) ∈ R4 sont
x − 2y + 3z − t = 0
tous les quadruplets (3−2λ, 0, −1+λ, λ), λ décrivant R. Leur ensemble peut aussi être noté : (3, 0, −1, 0)+Vect (−2, 0, 1, 1) .
9
Christophe Bertault — Mathématiques en MPSI
x − y + z + t = 2 x − y + 2t = 3 L1 ← L1 − L3
⇐⇒ y + z − t = −1 ⇐⇒ y = 0 L2 ← L2 − L3
z − t = −1 L3 ← 1
L3 + 1
L2
z − t = −1
3 3
x = 3 − 2t
⇐⇒ y = 0
z = −1 + t.
x + 2y + z + 3t = 1
x + z + t = 3
Exemple Les solutions du système : d’inconnue (x, y, z, t) ∈ R4 sont tous les
y + t = −1
x + y + z + 2t = 2
(3−λ−µ, −1−µ, λ, µ), λ et µ décrivant R. Leur ensemble peut aussi être noté : (3, −1, 0, 0)+Vect (−1, 0, 1, 0), (−1, −1, 0, 1) .
3 MATRICES INVERSIBLES
Vous avez appris au collège, pour tous a, b ∈ R, à résoudre l’équation : ax = b d’inconnue x ∈ R. Cette équation :
b
— admet pour seule et unique solution si : a 6= 0,
a
— admet tout réel pour solution si : a = b = 0,
— n’admet pas de solution si : a=0 mais : b 6= 0.
En résumé, pour cette équation, la question principale est la suivante — peut-on diviser par a ou pas ? Or dans le présent
chapitre, nous avons vu que tout système linéaire peut être écrit sous une forme matricielle analogue : AX = B. De
quelle manière pourrions-nous alors généraliser la résolution précédente ? Une division matricielle serait-elle possible ? Dans
1 1 1
le monde des réels, tout réel x SAUF 0 possède un inverse , lequel est défini par les relations : x × = × x = 1. Nous
x x x
allons voir que le monde des matrices est moins simple que le monde des réels, mais que ces mondes sont tout de même très
ressemblants.
Définition-théorème (Matrice inversible, inverse, groupe linéaire) Soit A ∈ Mn (K). On dit que A est inversible s’il
existe une matrice B ∈ Mn (K) pour laquelle : AB = BA = I n .
SI ELLE EXISTE, une telle matrice B est unique, notée A−1 et appelée l’inverse de A.
L’ensemble des matrices inversibles de Mn (K) est noté GLn (K) et appelé le groupe linéaire de degré n sur K.
10
Christophe Bertault — Mathématiques en MPSI
L’analogie des équations : ax = b et AX = B est confortée, mais deux questions se posent naturellement :
— qui sont concrètement les matrices inversibles ?
— comment calcule-t-on l’inverse d’une matrice inversible ?
1 1 3 −1 −1 3
Exemple La matrice 1 −1 0 est inversible d’inverse −1 −2 3 comme on le vérifie aisément. S’il existe une
1 0 1 1 1 −2
formule générale de calcul de l’inverse, on ne peut pas dire qu’elle saute aux yeux. . .
Exemple Toute matrice carrée qui possède une ligne ou une colonne nulle N’est PAS inversible.
Démonstration Soit A ∈ Mn (K). Supposons par exemple que A possède une colonne nulle, disons la j ème .
Alors pour tout B ∈ Mn (K), le produit BA possède lui aussi une j ème colonne nulle, donc ne peut jamais être égal
à In.
$ ATTENTION ! $ Dans R et C, 0 est le seul objet par lequel la division est impossible. Dans Mn (K) au contraire,
les
1 0
deux exemples précédents montrent qu’une matrice non nulle peut n’être pas inversible, par exemple la matrice .
0 0
Théorème (Caractérisation des matrices inversibles en termes de systèmes linéaires) Soit A ∈ Mn (K). La matrice
A est inversible si et seulement si pour tout second membre Y ∈ Kn , le système linéaire : Y = AX d’inconnue X ∈ Kn
possède une et une seule solution.
Démonstration
• Si A est inversible, le système : Y = AX d’inconnue X ∈ Kn est un système de Cramer pour tout Y ∈ Kn ,
donc possède une et une seule solution.
• Réciproquement, faisons l’hypothèse que le système linéaire : Y = AX d’inconnue X ∈ Kn possède une
et une seule solution pour tout Y ∈ Kn .
— Notons Y1 , . . . , Yn les colonnes de la matrice I n . Par hypothèse, pour tout i ∈ ¹1, nº, le système : Yi = AX
d’inconnue X ∈ Kn possède une solution Bi . Si nous notons B la matrice carrée de colonnes B1 , . . . , Bn ,
il est alors immédiat que : AB = I n .
— A-t-on pour autant aussi : BA = I n ? En tout cas : A(BA − I n ) = (AB)A − A = I n A − A = 0, donc
en lisant cette égalité colonne par colonne, on voit que les colonnes de BA − I n sont toutes solutions du
système homogène : AX = 0 d’inconnue X ∈ Kn . Comme 0 en est évidemment une autre et comme
ce système ne possède qu’une solution par hypothèse, les colonnes de BA − I n sont finalement toutes
nulles, donc : BA − I n = 0, i.e. : BA = I n . Comme voulu, A est inversible.
En pratique (Inversibilité et inversion par résolution de systèmes linéaires) Le théorème précédent va nous
permettre à la fois de savoir si oui ou non une matrice est inversible et, le cas échéant, de calculer son inverse. Le mot d’ordre
est simple — résoudre un système linéaire !
11
Christophe Bertault — Mathématiques en MPSI
2 3 1 −1 −2 5
Exemple La matrice 1 1 2 est inversible d’inverse 1 1 −3.
1 1 1 0 1 −1
Démonstration Pour tous (x, y, z), (a, b, c) ∈ R3 :
2x + 3 y + z = a x + y + 2z = b
x + y + 2z = b ⇐⇒ 2x + 3y + z = a L2 ↔ L1 (choix d’un pivot
x + y + z = c x + y + z = c simple de valeur 1)
x + y + 2z = b
⇐⇒ y − 3z = a − 2b L 2 ← L 2 − 2L 1
z = b − c L3 ← L1 − L3
x + y = − b + 2c L 1 ← L 1 − 2L 3
⇐⇒ y = a + b − 3c L 2 ← L 2 + 3L 3
z = b − c
x 2b = − a − + 5c L1 ← L1 − L2
⇐⇒ y b = a + − 3c
z b = − c.
2 3 1
On a réussi à résoudre le système de départ POUR TOUT SECOND MEMBRE (a, b, c), donc 1 1 2 est inversible,
1 1 1
−1 −2 5
et son inverse 1 1 −3 apparaît naturellement en fin de résolution.
0 1 −1
1 0 −1
Exemple La matrice 1 2 1 n’est pas inversible.
−1 4 5
Démonstration Pour tous (x, y, z), (a, b, c) ∈ R3 :
x − z = a x − z = a
x + 2y + z = b ⇐⇒ 2y + 2z = −a + b L2 ← L2 − L1
−x + 4 y + 5z = c 4y + 4z = a+c L3 ← L1 + L3
x − z = a
⇐⇒ 2y + 2z = −a + b
0 = 3a − 2b + c L 3 ← L 3 − 2L 2 .
Pour : a = 1 et
b = c = 0, le système obtenu n’a pas de solution à cause de sa troisième ligne, donc la
1 0 −1
matrice 1 2 1 n’est pas inversible.
−1 4 5
12
Christophe Bertault — Mathématiques en MPSI
a c d −c d −c a c
Démonstration Par un simple calcul : = = (ad − bc)I2 .
b d −b a −b a b d
a c 1 d −c
• Si : ad − bc 6= 0, est inversible par définition de l’inversibilité d’inverse .
b d −b a
ad − bc
a c
• Pour la réciproque, supposons par l’absurde que : ad − bc = 0 ET que est inversible. Alors :
b d
−1 −1
d −c d −c a c a c d −c a c 0 0
= I2 × = = × (ad − bc) I2 = ,
−b a −b a b d b d −b a b d | {z } 0 0
=0
a c 0 0
donc : a = b = c = d = 0. La matrice = est ainsi NON inversible — contradiction.
b d 0 0
Pour les systèmes linéaires de deux équations à deux inconnues, les formules suivantes sont bien pratiques et peuvent
être appliquées directement.
a b
Théorème (Formules de Cramer pour les systèmes 2 × 2) Soient a, b, c, a , b , c ∈ C. Si : ′ ′ ′
le système ′ 6= 0,
a b′
§
ax + b y = c
linéaire : d’inconnue (x, y) ∈ C2 possède une et une seule solution donnée par les relations
a ′ x + b′ y = c ′
c b a c
′ ′
c b′ a c ′
suivantes, dite formules de Cramer : x= et y= .
a b a b
′
a b′ a ′ b′
a b
Explication
Au dénominateur, qu’il s’agisse de x ou de y, c’est toujours le déterminant ′ qu’on trouve. Au
a b′
numérateur de la PREMIÈRE
inconnue x, on trouve aussi ce déterminant, mais dans lequel on a remplacé la PREMIÈRE colonne
c
par le second membre ′ . Pour la DEUXIÈME inconnue y, même principe sauf qu’on remplace la DEUXIÈME colonne.
c
a b a b
Démonstration Si : ′ 6= 0, est inversible, donc le système étudié a pour unique solution
a b′ a ′ b′
−1 ′ ′
x a b c 1 b −b c 1 c b − bc ′
le couple (x, y) suivant : = ′ ′ ′ = ′ ′ = ′ ′ .
y a b c a b′ − ba′ −a a c a b′ − ba′ ac − ca
Théorème (Opérations sur les matrices inversibles) Soient A, B ∈ GLn (K) — donc INVERSIBLES.
−1
(i) Inversibilité de l’inverse : A−1 est inversible et : A−1 = A.
(ii) Inversibilité d’un produit : AB est inversible et : (AB)−1 = B −1 A−1 .
−1 k
(iii) Inversibilité d’une puissance : Pour tout k ∈ Z, Ak est inversible et : Ak = A−1 .
t −1
(iv) Inversibilité de la transposée : t A est inversible et : A = t A−1 .
$ ATTENTION ! $ Dans l’assertion (ii), si A et B ne commutent pas, il est faux que : (AB)−1 = A−1 B −1 . Rappelez-
vous l’histoire du trésor du chapitre « Injections, surjections, bijections » !
Démonstration
(i) Par définition de l’inversibilité, la relation : A × A−1 = A−1 × A montre que A−1 est inversible d’inverse A.
(ii) AB × B −1 A−1 = A × BB −1 × A−1 = A × I n × A−1 = AA−1 = I n et de même : B −1 A−1 × AB = I n , donc
par définition de l’inversibilité, AB est inversible d’inverse B −1 A−1 .
13
Christophe Bertault — Mathématiques en MPSI
Les opérations élémentaires que nous avons définies pour les systèmes linéaires peuvent être définies de même pour les
matrices. On les notes de la même manière : L i ↔ L j , L i ← λL i et L i ← L i + λL j , mais on peut aussi effectuer
des opérations analogues sur les COLONNES, qu’on note alors : Ci ↔ C j , C j ← λC j et C j ← C j + λCi .
Exemple Soit A ∈ Mn,p (K) et i, j ∈ ¹1, nº. Notons P la grosse matrice ci-contre 1
..
obtenue par application de l’opération élémentaire : L i ↔ L j à la matrice I n . Cette .
1
matrice est inversible car d’inverse elle-même comme on le vérifie aisément.
i −→
0 1
Un simple calcul montre ensuite que le produit PA n’est autre que la matrice A à laquelle 1
..
on a fait subir l’opération élémentaire : L i ↔ L j . .
1
À présent, si on choisit i et j dans ¹1, pº et non dans ¹1, nº, et si on note P la grosse
j −→
1 0
matrice ci-contre obtenue par application de l’opération élémentaire : Ci ↔ C j à
1
la matrice I p , un simple calcul montre cette fois que le produit AP n’est autre que la ..
.
matrice A à laquelle on a fait subir l’opération élémentaire : Ci ↔ C j . 1
Exemple Soit A ∈ Mn,p (K), i ∈ ¹1, nº et λ ∈ K∗ . Notons P la matrice ci-contre obtenue par
i
application de l’opération élémentaire : L i ← λL i à la matrice I n . Cette matrice est inversible ↓
car diagonale à coefficients diagonaux non nuls. 1
..
.
Un simple calcul montre ensuite que le produit PA n’est autre que la matrice A à laquelle on a fait
1
subir l’opération élémentaire : L i ← λL i . λ
1
À présent, si on choisit i dans ¹1, pº et non dans ¹1, nº, et si on note P la matrice ci-contre obtenue ..
.
par application de l’opération élémentaire : Ci ← λCi à la matrice I p , un simple calcul montre
1
cette fois que le produit AP n’est autre que la matrice A à laquelle on a fait subir l’opération
élémentaire : Ci ← λCi .
j
Exemple Soit A ∈ Mn,p (K), i, j ∈ ¹1, nº avec i 6= j et λ ∈ K. Notons P la matrice ci-contre ↓
1
obtenue par application de l’opération élémentaire : L i ← L i + λL j à la matrice I n . Cette ..
.
matrice est inversible d’inverse la « même » matrice dans laquelle on a remplacé λ par −λ. 1
..
Un simple calcul montre ensuite que le produit PA n’est autre que la matrice A à laquelle on a fait .
subir l’opération élémentaire : L i ← L i + λL j . i −→
λ 1
..
.
À présent, si on choisit i et j dans ¹1, pº et non dans ¹1, nº, et si on note P la matrice ci-contre 1
obtenue par application de l’opération élémentaire : C j ← C j + λCi à la matrice I p , un simple
calcul montre cette fois que le produit AP n’est autre que la matrice A à laquelle on a fait subir
l’opération élémentaire : C j ← C j + λCi .
Explication Que faut-il finalement retenir de ces trois exemples ? Essentiellement ceci :
Opération élémentaire sur les LIGNES = Multiplication à GAUCHE par une matrice inversible
Opération élémentaire sur les COLONNES = Multiplication à DROITE par une matrice inversible
En pratique (Inversibilité et inversion par multiplication par des matrices inversibles) Les résultats accu-
mulés dans ce paragraphe nous permettent d’envisager une alternative à la résolution d’un système linéaire pour savoir si
une matrice est inversible ou non et calculer son inverse le cas échéant. Fondamentalement, on va faire la même chose, mais
présentée autrement. Fixons A ∈ Mn (K) une matrice dont nous voulons savoir si elle est inversible ou non et, le cas échéant,
calculer son inverse.
— Effectuer des opérations élémentaires sur A, on l’a vu, revient à la multiplier par des matrices inversibles, et si A est
elle-même inversible, le résultat de ces multiplications sera toujours une matrice inversible. Si donc à un moment on
obtient une matrice NON inversible en cours de calcul, c’est le signe certain que A N’était PAS inversible.
14
Christophe Bertault — Mathématiques en MPSI
— À présent, faisons l’hypothèse que nous avons réussi à transformer A en I n par des opérations élémentaires P1 , . . . , Pr
sur les LIGNES, dans cet ordre. Matriciellement, cela revient à dire que : Pr . . . P1 A = I n — multiplications à
GAUCHE . Or les matrices P1 , . . . , Pr sont inversibles, donc : A = P1−1 . . . Pr−1 , et donc A est inversible. Que vaut son
−1
inverse ? Tout simplement : A = Pr . . . P1 = Pr . . . P1 I n . Conclusion inattendue : les mêmes opérations qui ont
transformé A en I n permettent de transformer I n en A−1 .
— Ci-dessus, on a travaillé SEULEMENT SUR LES LIGNES de A, mais on aurait pu travailler SEULEMENT SUR SES COLONNES.
Choisissez ce que vous préférez, mais gardez le cap.
1 3 1 −2 −1 4
Exemple La matrice A = 1 2 2 est inversible d’inverse 1 0 −1.
1 2 1 0 1 −1
Démonstration Dans cet exemple, on va tâcher de montrer en quoi notre nouvelle méthode d’inversibilité n’est
qu’une reformulation de la précédente en termes de systèmes linéaires. Sur une copie, concrètement, choisissez
la méthode que vous préférez. Pour tous (x, y, z), (a, b, c) ∈ R3 :
A I3
z
}| { z
}| {
1 3 1 x + 3y + z = a 1 0 0
1 2 2 x + 2y + 2z = b 0 1 0
1 2 1 x + 2y + z = c 0 0 1
1 3 1 x + 3y + z = a 1 0 0
0 1 −1 ⇐⇒ y − z = a − b L2 ← L1 − L2 1 −1 0
0 1 0 y = a − c L3 ← L1 − L3 1 0 −1
1 3 1 x + 3y + z = a 1 0 0
0 1 −1 ⇐⇒ y − z = a − b 1 −1 0
0 0 1 z = b − c L3 ← L3 − L2 0 1 −1
1 3 0 x + 3y = a − b + c L1 ← L1 − L3 1 −1 1
0 1 0 ⇐⇒ y = a − c L2 ← L2 + L3 1 0 −1
0 0 1 z = b − c 0 1 −1
1 0 0 x = −2a − b + 4c L 1 ← L 1 − 3L 2 −2 −1 4
0 1 0 ⇐⇒ y = a − c 1 0 −1
0 0 1 z = b − c. 0 1 −1
| {z } | {z }
I3 A−1
1 0 2
Exemple La matrice B = −1 −3 1 n’est pas inversible.
0 1 −1
Démonstration On voit ci-dessous que, multipliée par des matrices inversibles, B se trouve transformée en une
matrice NON inversible — une ligne nulle.
1 0 2 1 0 2 1 0 2
−1 −3 1 0 −3 3 L2 ← L1 + L2 0 −3 3
0 1 −1 0 1 −1 0 0 0 L 3 ← L 2 + 3L 3 .
| {z } | {z }
B Non inversible
15
Christophe Bertault — Mathématiques en MPSI
L’inversibilité des matrices diagonales était facile à étudier. Qu’en est-il plus généralement des matrices triangulaires ?
Théorème (Inversibilité et inverse d’une matrice triangulaire) Une matrice triangulaire A est inversible si et seule-
ment si ses coefficients diagonaux sont tous non nuls. Dans ce cas, A−1 est elle aussi triangulaire de même type et ses
coefficients diagonaux sont exactement les inverses des coefficients diagonaux de A.
Démonstration Nous nous contenterons du cas des matrices triangulaires supérieures — le cas inférieur s’en
déduit par transposition. La preuve se fait par récurrence sur la taille n des matrices concernées.
Initialisation : Toute matrice triangulaire supérieure de taille 1 est de la forme a pour un certain a ∈ K, donc
−1
est inversible si et seulement si : a 6= 0, et dans ce cas comme voulu : a = a−1 .
Hérédité : Soit n ∈ N∗ . Supposons le théorème vrai pour les matrices triangulaires supérieures
de taille n et
B C
fixons A ∈ Mn+1 (K) triangulaire supérieure. Nous pouvons écrire A sous la forme A = avec B ∈ Mn (K),
01,n d
d ∈ K et C ∈ Mn,1 (K). Remarquez bien ici que B est triangulaire supérieure et que les coefficients diagonaux de
A sont exactement, hormis d, ceux de B.
′
B C′
• Si A est inversible, écrivons son inverse sous la forme avec B ′ ∈ Mn (K), d ′ ∈ K, C ′ ∈ Mn,1 (K)
L′ d ′
′
′ −1 B C B C′ I n 0n,1
et L ∈ M1,n (K). L’égalité : AA = I n+1 s’écrit aussi : × ′ = et
01,n d L d′ 01,n 1
′ ′ ′ ′
donne en particulier : d d = 1 donc : d 6= 0, puis : d L = 01,n donc : L = 01,n , et enfin :
BB ′ +C L ′ = I n donc : BB ′ = I n . De la même manière, l’égalité : A−1 A = I n+1 donne en particulier :
B ′ B = I n . Il découle de tout ceci que B est inversible d’inverse B ′ , or B est triangulaire supérieure, donc
ses coefficients diagonaux sont alors non nuls par hypothèse de récurrence. Comme voulu, les coefficients
diagonaux de A sont tous non nuls.
• Supposons réciproquement A à coefficients diagonaux non nuls. Triangulaire supérieure à coefficients dia-
gonaux non nuls, B est alors inversible par hypothèse de récurrence et B −1 triangulaire supérieure à coef-
ficients diagonaux inverses de ceux de B. Enfin :
−1 −1
B C B −d −1 B −1 C BB −d −1 C + d −1 C In 0n,1
× = = = I n+1
01,n d 01,n d −1 01,n 1 01,n 1
B −1 −d −1 B −1 C B C
et on vérifie de même l’égalité : × = I n+1 . Conclusion : A est inversible,
01,n d −1 01,n d
et comme B est triangulaire supérieure à coefficients diagonaux inverses de ceux de B, A−1 est triangulaire
supérieure à coefficients diagonaux inverses de ceux de A.
Un système linéaire est dit triangulaire si sa matrice l’est. Le théorème qui suit découle directement du précédent.
Théorème (Système triangulaire à coefficients diagonaux non nuls) Tout système triangulaire à coefficients diago-
naux non nuls possède une et une seule solution.
16