Académique Documents
Professionnel Documents
Culture Documents
et
Licence Informatique
Mathmatiques :
Rsum de ce quil faut savoir en Algbre linaire (ou Calcul Matriciel)
au sortir du L1, en pralable au cours dAlgbre linaire du L2,
concernant :
MATRICES
SYSTMES LINAIRES
DTERMINANTS
2007
2
Table des matires
I Matrices 5
I.1 Dfinitions de base. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
I.2 Matrices (trs) spciales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
I.3 Transposition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
I.4 Egalit de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I.5 Addition de matrices, multiplication dune matrice par un scalaire. . . . . . . . . . . 7
I.6 Multiplication de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I.7 Trace dune matrice carre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
I.8 Matrices inversibles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
I.9 Explication de la multiplication matricielle laide des transformations linaires. . . 10
I.10 Dfinitions complmentaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
I.11 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
II Systmes Linaires 15
II.1 Dfinition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
II.2 Procd dlimination de GAUSS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
II.3 Rang dune matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
II.4 Solutions de systmes linaires : existence de solutions, unicit. . . . . . . . . . . . . 20
II.5 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
III Dterminants 23
III.1 Dterminants dordre 1 et 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
III.2 Dterminants dordre 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
III.3 Dterminants dordre quelconque. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
III.3.1 Dfinition laide des permutations. . . . . . . . . . . . . . . . . . . . . . . . 24
III.3.2 Dveloppements suivant une ligne ou une colonne. . . . . . . . . . . . . . . . 25
III.4 Proprits gnrales des dterminants (important !). . . . . . . . . . . . . . . . . . . 25
III.5 Rgles importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
III.6 Inversion dune matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
III.7. Rsolution de systmes linaires laide de dterminants, autant dquations linaires
que dinconnues (systmes dits de CRAMER). . . . . . . . . . . . . . . . . . . . . . 27
III.8 Dterminants et volumes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
III.9 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3
4
I. Matrices
dsignera ou ; ses lments seront appels des scalaires (des nombres rels ou complexes). Une
matrice coefficients dans est un tableau rectangulaire prsent habituellement de la manire
suivante :
a11 a12 ... a1n
a21 a22 ... a2n
m lignes .
.
.
am1 am2 . . . amn
| {z }
n colonnes
a1 0 ... 0
.. .
. ..
0 a2 (a , . . . , a sur la diagonale,
1 n
diag(a1 , a2 , . . . , an ) =
.. .. .. des 0 partout ailleurs)
. . . 0
0 . . . 0 an
5
@ @
0
@ @
A= ou A=
@ @
@
@
@
0 @
@ @
(aij = 0 si i < j) (aij = 0 si i > j)
a1
a2
Les matrices unicolonnes (ou matrices colonnes) : A = .. Mm,1 ()
.
am
a1
a2
de m .
On peut identifier cette matrice unicolonne avec le vecteur : ..
.
am
Matrices unilignes (ou matrices lignes) : dfinition mutatis mutandis.
A = [aij ] Mm,n () comporte m n coefficients aij .
La matrice diag (a1 , . . . , an ) comporte n(n 1) coefficients nuls ; les n autres coefficients a1 , . . . , an
la dterminent.
La matrice triangulaire
@
0
@
n(n1)
A= comporte coefficients nuls ; les n(n+1) autres coefficients aij la dtermine.
@
2 2
@
@
@
n(n1) n(n+1)
Noter que n2 2 = 2 ... qui est aussi 1 + 2 + ... + n.
Dans une matrice A Mn () , il y a n termes diagonaux et n2 n = n(n 1) = 2 n(n1)
2 termes
non diagonaux.
Exemple:
Matrice des coefficients dans un systme linaire.
(
5x 2y + z = 1
Dans (2 quations, 3 inconnues x, y, z)
3x + 4z = 5
" #
5 2 1
la matrice des coefficients des inconnues x, y, z est A = .
3 0 4
I.3. Transposition.
Si A Mm,n (), la matrice transpose de A, note AT ou t A (At est viter, car gnratrice
de confusions) est la matrice n m dont le terme (i, j) est le terme (j, i) de A (les lignes de A
deviennent les colonnes de AT , les colonnes de A deviennent les lignes de AT ).
Exemple:
" # 5 4
5 8 1
A= devient AT = 8 0 .
4 0 0
1 0
6
En bref, on transpose A et on prend les conjugues des termes de la matrice (ou dans lordre inverse).
Par exemple,
" # " #
5 i 5 1
A= devient A = .
1 2i i 2i
n
X
cij = aik bkj = ai1 b1j + ai2 b2j + . . . + aip bpj .
k=1
Pour sen souvenir, rien de plus simple, adopter le schma de calcul suivant :
7
j j
# #bkj
##
# #
- n# # B
##
# #
? ## #
limportant est le n commun,
#
n ##
#
peu importe m et p ...
z }|
# # { #
# # #
# # #
# # A AB
j
#
m i # # #
aik (AB)ij
| {z }
p
Exemples particuliers :
x1
a11 ... a1n x
2 a11 x1 + a12 x2 + . . . + a1n xn
a21 ... a2n
a21 x1 + a22 x2
+ . . . + a2n xn
.. .. . = ..
.
. . . .
am1 . . . amn am1 x1 + am2 x2 + . . . + amn xn
| {z }
xn | {z }
A Mm,n () matrice unicolonne ( Mm,1 ())
a11 ... a1n
h i a21 ... a2n " m
X m
X m
X
#
y1 y2 . . . yn .. .. = ai1 yi ai2 yi . . . ain yi
. .
i=1 i=1 i=1
am1 . . . amn
| {z }
| {z } matrice uniligne ( M1,n ())
A Mm,n ()
" # " #
h i a c x h i
x y = ax2 + by 2 + 2cxy (Attention, cest bien 2c !)
c b y | {z }
matrice scalaire
| {z }
A M2 ()
y1
" n #
h i
y2
X
x1 x2 . . . xn .. = xi yi
.
i=1
yn
| {z }
matrice scalaire
8
h i
x1 x2 . . . x n
x1 x21 x1 x2 . . . x1 xn
x2
x2 x1 x22 . . . x2 xn
.. = ..
. .
xn xn x1 xn x2 . . . x2n
| {z }
matrice carree (n, n) symetrique
Mises en garde !
AB 6= BA en gnral.
AB = 0 nimplique pas A = 0 ou B = 0, ni mme BA = 0.
AB = AC nimplique pas B = C, mme si A 6= 0.
Proprits :
. tr(AB) = trA + trB ; tr(cA) = ctrA ; tr(AT ) = trA.
. Soit A Mm,n (), B Mn,m (), de sorte quon peut effectuer les deux produits AB et BA ;
ainsi AB Mm () et BA Mn () (elles peuvent donc tre de tailles trs diffrentes). Alors
tr(AB) = tr(BA)
Ceci est un rsultat trs utile . . . Attention, il est faux de dire que tr(AB) = (trA)(trB).
Exemple:
. tr(ABC) = tr(CAB) = tr(BCA) (utiliser deux fois le rsultat prcdent)... mais on ne peut pas
mettre A, B etC dans nimporte quel ordre.
x1
x2
n
X
T T
. Si X = ..
, tr(XX ) = tr(X X ) = x2i (Revoir pour ce cas extrme les exemples de la
.
| {z } | {z }
(n,n) (1,1) i=1
xn
page 8).
9
- Si A est diagonale (resp. triangulaire infrieure, triangulaire suprieure) et inversible, alors A1
est diagonale (resp. triangulaire infrieure, triangulaire suprieure).
Exemple:
a11
a22
..
A= .. est inversible ds lors que tous les aii sont diffrents de 0, auquel cas
..
0
..
ann
1
a11
1
a22
A1 = ..
; ce qui est marqu dans les 2 matrices ne peut se comparer direc-
..
0 ..
..
1
ann
tement.
soit encore :
(
y1 =c11 w1 +c12 w2 ,
(3)
y2 =c21 w1 + c22 w2
10
ou
(
c11 =a11 b11 +a12 b21 , c12 =a11 b12 +a12 b22 ,
(4)
c21 =a21 b11 +a22 b21 , c22 =a21 b12 + a22 b22
o C = AB prcisment.
B = P 1 AP
Exemple:
B = P T AP
11
I.11. Exercices.
Exercice 1:
On sait que 0A = A0 = 0, o 0 dsigne la matrice nulle. Trouver deux matrices A et B de M2 ()
telles que le produit soit la matrice nulle.
0 0 3 1 2 4
. ; on vrifie que AB = 0 = et B = Rp. 1 : Soit par exemple A =
0 0 6 2 1 2
# " # " # "
Exercice"2: #
1 3
Soit A = .
4 3
!
x
1) Touver un vecteur colonne non nul u = tel que A. u = 3 u .
y
2) Dterminer tous les vecteurs vrifiant cette relation.
a
, o a est un paramtre rel quelconque. 2a 2) Les vecteurs de la forme
3
!
2
est un exemple. 1) Tout vecteur u non nul pour lequel 2x 3y = 0 ; u =
3
! Rp. 2 :
Exercice 3:
1 0 2 11 2 2
Montrer que A = 2 1 3 et B = 4 0 1 . sont inverses lune de lautre.
4 1 8 6 1 1
0 0 1
0 = 0 1 I3 Rp. 3 : On vrifie que AB =
1 0 0
Exercice 4:
Dterminer les inverses, sils existent, des matrices suivantes :
" # " # " #
5 3 2 3 2 6
A= , B= , C=
4 2 1 3 3 9
Exercice 5:
Trouver une matrice A M2 () non diagonale, telle que A2 soit diagonale.
0 7 3 1
. , de sorte que A2 = Rp. 5 : Par exemple, A =
7 0 1 2
# " # "
Exercice 6: " #
8 57
Trouver une matrice triangulaire suprieure A M2 () telle que A3 =
0 27
0 3
Rp. 6 : A =
2 3
# "
12
Exercice 7:
Soit A Mn () et B Mn () deux matrices triangulaires suprieures. Montrer que AB est
encore une matrice triangulaire suprieure dont les lments diagonaux sont a11 b11 , a22 b22 ,...,ann bnn
(A = [aij ], B = [bij ]).
Exercice 8:
Trouver une matrice A M2 () orthogonale dont la premire ligne soit un multiple positif de (3,4).
Exercice 10:
Montrer que la matrice A M2 () suivante est unitaire :
" #
1/3 i2/3 i2/3
A=
i2/3 1/3 i2/3
Exercice 11:
Calculer le produit AB par la technique du produit par blocs, avec :
1 2 1 1 2 3 1
A = 3 4 0 et B = 4 5 6 1
0 0 2 0 0 0 1
0 0 0 2
0 GT
= 19 26 33 7 Alors AB =
ER ES + F T
# 9 12 15 4 "
0 T 0 G
(attention, les 0 ne sont pas des blocs de mme taille). ,B= Rp. 11 : A =
R S E F
# " # "
Exercice 12:
Soit M diagonale par blocs, M = diag(A, B, C), o
" # " #
1 2 h i 1 3
A= ,B = 5 ,C = .
3 4 5 7
13
Exercice 13:
Soit A Mn () ; montrer que :
i) A + AT est symtrique ;
ii) A AT est antisymtrique ;
iii) A = B + C, o B est symtrique et C antisymtrique.
Exercice 14:
Soit A Mn () ; montrer que :
i) A + A est hermitienne ;
ii) A A est antihermitienne ;
iii) A = B + C, o B est hermitienne et C antihermitienne.
Exercice 15:
On dit que les matrices A et B commutent lorsque AB = BA.
Les matrices suivantes commutent-elles ?
" # " # 1 2 2 0 0 1
3 4 6 2
a) A= et B = b) A = 2 4 5 et B = 1 1 0
4 3 2 9
0 4 1 1 1 0
" # 0 0 " # " #
3 2 2 3 2 2 1 0
c) A= et B = 1 1 d) A= et B =
2 4 3 2 4 3 1 0
1 1
Exercice 16:
Calculer (A + B)2 et A2 + 2AB + B 2 lorsque
" # " #
1 1 1 0
A= et B = .
0 1 1 1
1 0 0 0
. et B = suivants de B, B =
0 0 0 1
# " # "
c d
, on essaie de vrifier si AB = BA pour les choix particuliers Ind. : En prenant A =
a b
# "
14
II. Systmes Linaires
II.1. Dfinition.
Un systme linaire de m quations n inconnues x1 , x2 , . . . , xn est un ensemble dquations de
la forme :
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
.. (1)
.
am1 x1 + am2 x2 + . . . + amn xn = bm
o les aij et bj sont des scalaires donns. Si les bj sont tous nuls, on parle dun systme homogne,
et x1 = 0, x2 = 0, . . . , xn = 0 est automatiquement solution.
Forme matricielle de (1) :
x1 b1
x2
b2
AX = b, ou A = [aij ], X = .. et b = .. (2)
. .
xm bm
Exemple 1:
Matrice [ A b ]
xm
pivot 1 x2 + x3 = 0
1 1 1 0
1
(1x1 )
x1 + x2 x3 = 0 1 1 1 0
(3)
10x2 + 25x3 = 90 0 10 25 90
liminer
20x1 + 10x2 = 80 20 10 0 80
x1 x2 + x3 = 0
0 = 0
10x2 + 25x3 = 90
30x2 20x3 = 80
15
x1 x2 + x3
= 0 1 1 1 0
pivot 10 (10x2 )
10x2 + 25x3 = 90 0 10 25 90
(4)
liminer 30x2 20x3 = 80 0 30 20 80
0 = 0 0 0 0 0
A laide de la 2eme quation et du terme pivot 10x2 , liminer x2 dans les autres quations (1 seule
traiter ici) ; pour cela : on ajoute (3L2 ) la 3eme quation. Cela donne :
x1 x2 + x3 = 0 1 1 1 0
10x2 + 25x3 = 90 0 10 25 90
(5)
95x3 = 190 0 0 95 190
0 = 0 0 0 0 0
(Attention ne pas oublier de transformer les scalaires bj de droite dans ces oprations succes-
sives !)
3 eme tape : Rsolution en remontant dans les quations.
De la 3eme quation de (5) on tire directement x3 = 2 ; avec cette information, de la 2eme quation
on tire x2 = 4 ; connaissant x3 et x2 , de la 1ere quation on tire x1 = 2.
Rsum : (3) tait un systme de 4 quations 3 inconnues ; on en a tir une solution unique
(x1 = 2, x2 = 4, x3 = 2)
Cet exemple illustre les diverses oprations dans une limination de GAUSS :
- Multiplier une quation par un terme non nul
- Ajouter (ou soustraire) le multiple dune quation une autre
- Echanger lordre de deux quations.
.
Les oprations correspondantes sur la matrice augmente [A..b] sont : multiplier une ligne par un
terme non nul ; ajouter (ou soustraire) le multiple dune ligne une autre ; changer deux lignes.
Dfinitions:
Le systme linaire (1) est dit sur-dtermin sil y a plus dquations que dinconnues (m > n),
dtermin si m = n, et sous-dtermin sil y a moins dquations que dinconnues (m < n).
Le systme linaire (1) est dit compatible (ou consistant) sil a une solution au moins, incompa-
tible (ou inconsistant) sil na aucune solution.
3x1 + 2x2 + 2x3 5x4 = 8 3 2 2 5 8
pivot
1, 1x2 + 1, 1x3 4, 4x4 = 1, 1 0 1, 1 1, 1 4, 4 1, 1
liminer 1, 1x2 1, 1x3 + 4, 4x4 = 1, 1 0 1, 1 1, 1 4, 4 1, 1
16
2eme tape : Elimination de x2 dans la 3eme quation.
Pour cela : ajouter L2 L3 (3eme quation) ; cela donne :
3x1 + 2x2 + 2x3 5x4 = 8 3 2 2 5 8
1, 1x2 + 1, 1x3 4, 4x4 = 1, 1 0 1, 1 1, 1 4, 4 1, 1
0 = 0 0 0 0 0 0
x1 + x2 + 2x3 = 2 1 1 2 2
pivot 2x2 + 7x3 = 12 0 2 7 12
liminer 2x2 + 2x3 = 2 0 2 2 2
x1 + x2 + 2x3 = 2 1 1 2 2
2x2 + 7x3 = 12 0 2 7 12
5x3 = 10 0 0 5 10
17
On a trait dans cet exemple un systme dtermin : ((7) comportait 3 quations 3 inconnues).
En dfinitive, ce systme linaire (7) possde une seule solution (x1 = 1, x2 = 1, x3 = 2).
Exemple 4 (Systme linaire sans solution):
Matrice [ A b ]
3x1 +
pivot 2x2 + x3 = 3 3 2 1 3
2x1 + x2 + x3 = 0 2 1 1 0 (8)
liminer
6x1 + 2x2 + 4x3 = 6 6 2 4 6
3x1 + 2x2 + x3 = 3
3 2 1 3
pivot
13 x2 + 13 x3 = 2 0 13 1
3 2
liminer 2x2 + 2x3 = 0 0 2 2 0
3x1 + 2x2 + x3 = 3 3 2 1 3
13 x2 + 1
3 x3 = 2 0 13 1
2
3
0 = 12 0 0 0 12
A laide des oprations lmentaires du procd dlimination de Gauss, on peut toujours arriver
mettre un systme linaire sous une forme dite chelonne, cest--dire comme ceci :
18
En clair : les lignes de A commencent par un nombre strictement croissant de zros mesure que
lindice des lignes augmente.
Il y a 3 cas de figure concernant le schma gnral(9) :
. Si r < m et que lun des bbj , r + 1 j m, nest pas nul : le systme est incompatible, (9) na
aucune solution. Ctait le cas dans lexemple 4, avec r = 2 < m = 3 et bbr+1 = bb3 = 12
b* * * *
b
b
b* * = *
0 12
. Si r = n et si les bbr+1 , . . . , bm
b sont nuls (sils sont prsents) : le systme a alors une et une seule
solution. Il suffit de remonter partir de la r = neme quation de (9). Ctait le cas dans lexemple
1, avec r = n = 3 et m = 4
b* * * *
b
b
b* * *
bb =
* *
0 0
. Si r < n et si les bbr+1 , . . . , bm
bsont nuls (sils sont prsents) : le systme a alors une infinit de
solutions. On choisit en effet xr+1 , . . . , xn comme on veut ; ensuite la (r 1)eme quation conduit
xr1 en fonction de xr , xr+1 , . . . , xn ; puis on continue en remontant dans les quations. Ctait
le cas dans lexemple 2 avec r = 2, n = 4 et m = 3.
b * * * * *
b
b
b* * * = *
0 0
19
Exemple:
Reprenons la matrice A de (10) : puisque son rang est 2, il y a au moins 2 vecteurs colonnes
linairement indpendants ; et chaque fois quon prend 3 vecteurs colonnes, on est sr quils sont
linairement dpendants. Avouez que a ne saute pas aux yeux !
AX = b, A Mm,n () et b m (11)
.
a des solutions si et seulement si la matrice A et la matrice "augmente" A = [A .. b] Mm,n+1 ()
ont le mme rang.
Unicit. Le systme linaire (11) a une et une seule solution si et seulement si rgA = rgA = n.
Infinit de solutions. Si rgA = rg A < n, le systme linaire(11) a une infinit de solutions.
Cas particulier :
AX = b avec A Mn () et b n (12)
II.5. Exercices.
Exercice 1:
En utilisant le procd dlimination de Gauss, transformer le systme linaire suivant :
x 3y 2z = 6 x 6
(S) 2x 4y 3z = 8 , (AX = b), X = y , b = 8
3x + 6y + 8z = 5
z 5
2
Solution du systme triangulaire quivalent, et donc du systme initial (S) : X = 3
1
7z = 14 0 0 7
2y + z = 4 , T = 0 2 1
x 3y 2z = 6 1 3 2
Rp. 1 :
20
Exercice 2:
Mettre les systmes linaires suivants sous forme chelonne :
x1
+ x2 2x3 + 4x4 = 5 x1 + x2 2x3 + 3x4 = 4
(S1 ) 2x 1 + 2x2 3x3 + x4 = 3 , (S2 ) 2x1 + 3x2 + 3x3 x4 = 3
+ 3x2 4x3 2x4 = 1
3x
5x + 7x + 4x + x = 5
1 1 2 3 4
0 0 0 0 0 0 0 0 0 5
0 0 1 7 7 , (S ) 0 1 7 7 5
2 (S1 )
1 1 0 10 9 1 1 2 3 4
Rp. 2 :
Exercice 3:
Dterminer si chacun des systmes linaires homognes suivants a une solution non nulle :
x
+ y z =0 x + y z =0
(S1 ) 2x 3y + z = 0 , (S2 ) 2x + 4y z = 0 ,
x 4y + 2z = 0
3x + 2y + 2z = 0
x1
+ 2x2 3x3 + 4x4 = 0
(S3 ) 2x1 3x2 + 5x3 7x4 = 0
+ 6x2 9x3 + 8x4 = 0
5x
1
trois quations ; il nest pas besoin ici de mettre sous forme chelon pour parvenir cette conclusion.
Le systme (S3 ) doit possder une solution non nulle, puisquil y a quatre inconnues pour seulement
z=0
Le systme na que la solution nulle y = 0 .
x=0
11z = 0
2y + z = 0
x + y
z =0
Mise sous forme chelonne de (S2 ) :
z=5
Une solution non nulle particulire est y = 3 (z variable libre).
x=2
5y + 3z = 0
x + y z =0
(
Rp. 3 : (S1 ) a autant dquations que dinconnues. Mise sous forme chelonne :
Exercice 4:
On considre le systme linaire suivant :
x
+ 2y + z = 3
(S) ay + 5z = 10 , o a et b sont des rels.
2x + 7y + az = b
21
22
Rp. 4 :
1)
x + 2y + z = 3
(S 0 ) ay + 5z = 10
(a2 2a 15)z = ab 6a 30
2) Le systme a une et une seule solution si, et seulement si, le coefficient de z dans la dernire
quation de (S 0 ) est 6= 0 ; cest--dire lorsque a 6= 5 et a 6= 3.
3) Le systme a plus dune solution (une infinit en fait) si le coefficient de z et le second membre
sont nuls ; cela donne deux possibilits : (a=5, b=12) et (a=-3, b=4).
III. Dterminants
" #
a b
Si A = [a], detA = a ; si A = , detA = ad bc @
c d @R
@
Exemple:
" #
4 3
A= ; detA = 14, det(A) = 14 aussi.
2 5
detA = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31 a12 a21 a33 a11 a23 a32
Il y a dans ce dveloppement 6 produits de 3 lments de la matrice A, trois sont compts avec les
signe +, et les 3 autres avec les signe .
. Autre expression du dterminant dordre 3
22 a33 a23
detA = a11 (a a32 ) a12 (a21 a33 a23 a31 ) + a13 (a21 a32 a22 a31 )
a a a a a a
= a11 22 23 a12 21 23 + a13 21 22
a32 a33 a31 a33 a31 a32
= combinaison linaire de 3 dterminants dordre 2,
a a
a11
a12 a13 a11 a12
a13
11 12 a13
a21 a22 a23 a21 a22 a23 a21 a22 a23 (1)
a31 a32 a33 a31 a32 a33 a31 a32 a33
a11 ( . . . . . ) a12 ( . . . . . ) + a13 ( . . . . . )
23
Exemple:
1 2 3
2 3 4 3 4 2
4 2 3 = 1 2 + 3 = 55
5 1 0 1 0 5
0 5 1
Lensemble de toutes ces permutations de {1, 2, . . . , n} est not Sn , elles sont au nombre de n !
Si Sn , on dsigne par le nombre dinversions dans , cest--dire le nombre de paires
((i), (j)) pour lesquelles (i) > (j) alors que i < j (ou encore, est le nombre dchanges
ncessaires pour repasser de ((1) (2) . . . (n)) (1 2 . . . n)).
La signature de est = (1) , cest--dire 1 si est pair, 1 si est impair.
Exemple: !
1 2
= , = 1 et = 1.
2 1
! !
1 2 3 1 2 3
= , = 1; = , = 1.
3 2 1 3 2 1
!
1 2 3 4 5
= , = 6 et = 1.
3 5 1 4 2
Une transposition est une permutation particulire : elle change 2 lments i et j, en laissant
tous les autres leur place, soit :
1 2 ... i ... j ... n
H
=
HH
j
1 2 ... j ... i ... n
24
Exemple: ! ! " #
1 2 1 2 a11 a12
Pour n = 2, il y a 2 permutations : et . Ainsi, avec A = , detA =
1 2 2 1 a21 a22
a11 a22 a12 a21 .
Soit A = [aij ]. On dsigne par Mij la matrice carre de taille n 1 obtenue en supprimant de A
sa ieme ligne et sa j eme colonne ; le dterminant |Mij | sappelle le mineur du coefficient aij ; le
mineur "sign" (1)i+j |Mij | = Aij est appel le cofacteur de aij .
Observer que le coefficient (1)i+j est 1 suivant la parit de la somme i + j des numros de ligne
et colonne de aij .
Thorme:
detA est gal la somme des produits obtenus en multipliant les lments dune ligne (ou dune
colonne) quelconque par leurs cofacteurs respectifs :
Exemple:
det(cA) = cn detA (attention ! cn et non c ...)
.
. ..
..
..
..
0
..
..
si A = .. , detA = produit des dterminants par blocs diagonaux
..
..
..
(lesquels sont des matrices carres de tailles diverses)
..
0
..
.
25
Pour les calculs, on a donc intrt transformer A, laide doprations sur les lignes et colonnes,
de manire la rendre la plus "creuse" possible, cest--dire avec le plus de zros possibles comme
lments de A.
Exemple:
Calcul du dterminant dune matrice (4, 4)
2 0 -4 6 2 0 -4 6
4 5 1 0 0 5 9 -12 ligne 2 - 2(ligne 1)
=
0 2 6 -1 0 2 6 -1
-3 8 9 1 0 8 3 10 ligne 4 + 1,5(ligne 1)
2 0 -4 6
0 5 9 -12
=
0 0 2,4 3,8 ligne 3 -0,4(ligne 2)
0 0 -11,4 29,2 ligne 4 - 1,6(ligne 2)
2 0 -4 6
0 5 9 -12
=
0 0 2,4 3,8
0 0 0 47,25 ligne 4 + 4,75(ligne 3)
Le format auquel on est rendu est triangulaire ; en consquence, le dterminant en question vaut
2 5 2, 4 47, 25 = 1134
.det(A ) = detA
T
On appelle comatrice de A, ou matrice des cofacteurs de A, la matrice cof A dont le terme (i, j)
est le cofacteur du terme aij de A :
26
Proprit (gnrale) fondamentale :
1
A1 = (cof A)T (5)
detA
(attention ne pas oublier cette opration de transposition).
Exemple: 9 11 5
23 46 23
2 3 4
A = 0 4 2 , Alors : detA = 46 et A1 = 1 7 2
.
23 23 23
1 1 5
2 5 4
23 46 23
Exemple:
" #
. A=
a b
c d
M2 () avec detA = ad bc 6= 0. Alors :
" #
1 1 d b
A = (suffisamment simple pour tre retenu par coeur).
ad bc c a
B 0
.
A=
0 C
avec B et C inversibles (pas de mme taille ncessairement).
Alors
B 1 0
1
A = .
0 C 1
Thorme:
Le systme linaire (ou dquations linaires) AX = b, dtaille en
a11 x1 + a12 x2 + . . . a1n xn = b1 b1
a21 x1
+ a22 x2 + . . . a2n xn = b2
b2
n
.. A = [aij ] Mn (), b = ..
. .
a x
n1 1 + an2 x2 + . . . ann xn = bn bn
pour lequel D = detA 6= 0, a exactement une solution, qui est donne par
D1 D2 Dn
x1 = , x2 = , . . . , xn = (rgle de Cramer) (6)
D D D
o Dk est le dterminant dune matrice modifie de A en remplaant la k eme colonne par le
vecteur colonne b.
27
Exemple:
Rsoudre par cette mthode (qui nest pas la meilleure ici !) le systme :
x
+ y + z = 5
x 2y 3z = 1
2x + y z = 3
On comprend que Aire(P ) = 0 lorsque le paralllogramme P est "aplati", i.e. lorsque ~u et ~v sont
colinaires (ou linairement dpendants).
P = { x~u + y~v + z w~ | 0 x 1, 0 y 1 et 0 z 1 } est le
6
paralllpipde de ct ~u, ~v et w.
~
w~
~ M3 (), alors :
Si A = [~u ~v w]
vol(P ) = |detA| (8)
~ v :
~
0
u
-
III.9. Exercices.
Exercice 1:
1 1 1
On considre la matrice A = 2 3 4 .
5 8 9
Calculer detA, la comatrice cof A de A, A1 laide de detA et cof A.
Exercice 2:
28
Calculer le volume du paralllpipde S de 3 construit sur les vecteurs suivants :
1 1 1
(a) u=
1 ,
v=
3 ,
w=
2
1
4
5
1 2 5
(b) u=
2 ,
v=
1 ,
w=
7
4 3 9
Exercice 3:
Calculer le dterminant de la matrice triangulaire infrieure par blocs suivante :
3 4 0 0 0
2 5 0 0 0
A= 0 9 2 0 0
0 5 0 6 7
0 0 4 3 4
3 4 2 5
= 7 2 3 = 42 det [2] det Rp. 3 : detA = det
6 7 3 4
# " # "
Exercice 4:
Soit P une matrice inversible ; montrer que detP 1 = 1
detP .
annonc.
Rp. 4 : Puisque P 1 P = In , et que det(P 1 P ) = det(P 1 )detP = detIn = 1, on a le rsultat
Exercice 5:
Soit A et B deux matrices semblables ; montrer que detB = detA.
detB = det(P 1 ).detA.detP = detA.
consquence,
Rp. 5 : A et B tant semblables, il existe une matrice P inversible telle que B = P 1 AP . En
Exercice"6: #
a b
Soit A = .
c d
Dterminer la matrice cof A. Que vaut cof (cof A) ? Quand-a-t-on A = cof A ?
b = c.
c d b a
= A. On a A = cof A lorsque a = d et ; cof (cof A) = Rp. 6 : cof A =
a b d c
# " # "
Exercice 7:
Soit A une matrice triangulaire, A = [aij ].
(a) Montrer que A est inversible si et seulement si tous les lments diagonaux aii sont non nuls.
(b) Montrer que si A est inversible, les lments diagonaux de A1 sont les inverses a1ii des lments
diagonaux de A.
Exercice8:
2 2 1
Soit A = 2 1 2 .
1 2 2
29
Calculer A2 .
En dduire que detA = 27.
Exercice9:
1 1 1
Soit A = a b c , o a, b et c sont des scalaires .
b+c a+c a+b
Montrer que detA = 0.
Exercice 10:
Dterminer le rang des matrices suivantes :
2 5 1 1 3 4 1
A = 3 4 2 , B = 1 4 3 1 .
1 1 3 1 1 2 1
Exercice11:
1 1 1
Soit A = 2 3 1 .
1 2 1
1) Calculer A2 , A3 , puis A3 3A2 2A.
2) En dduire que A est inversible et dterminer A1 .
3) Rsoudre le systme linaire suivant :
x
+ y z = a
(S) 2x + 3y + z = b , ou a b et c sont des scalaires quelconques.
x 2y z = c
a + b + c c z
y = A b = a 2b 3c .
1
a + 3b + 4c a x
3) La solution est
.
1 1 1
A1 = A2 3A 2I3 = 1 2 3
1 3 4
2) De A3 3A2 2A = I3 , 2I3 )
on tire A(A2 3A = do : I3 ,
4 5 0 14 19 1
1) A2 = 7 9 0 , A3 = 25 34 2 , de sorte que A3 3A2 2A = I3 .
4 6 1 15 20 1
Rp. 11 :
30
A Brief History of Linear Algebra and Matrix Theory
The introduction and development of the notion of a matrix and the subject of linear algebra
followed the development of determinants, which arose from the study of coefficients of systems
of linear equations. Leibnitz, one of the founders of calculus, used determinants in 1693 and Cramer
presented his determinant-based formula for solving systems of linear equations (today known as
Cramers Rule) in 1750. In contrast, the first implicit use of matrices occurred in Lagranges work
on bilinear forms in the late 1700s. Lagrange desired to characterize the maxima and minima of
multivariate functions. His method is now known as the method of Lagrange multipliers. In order
to do this he first required the first order partial derivatives to be 0 and additionally required that
a condition on the matrix of second order partial derivatives hold ; this condition is today called
positive or negative definiteness, although Lagrange didnt use matrices explicitly.
Gauss developed Gaussian elimination around 1800 and used it to solve least squares pro-
blems in celestial computations and later in computations to measure the earth and its surface (the
branch of applied mathematics concerned with measuring or determining the shape of the earth or
with locating exactly points on the earths surface is called geodesy. Even though Gauss name is
associated with this technique for successively eliminating variables from systems of linear equa-
tions, Chinese manuscripts from several centuries earlier have been found that explain how to solve
a system of three equations in three unknowns by Gaussian elimination. For years Gaussian elimi-
nation was considered part of the development of geodesy, not mathematics. The first appearance
of Gauss-Jordan elimination in print was in a handbook on geodesy written by Wilhelm Jordan.
Many people incorrectly assume that the famous mathematician Camille Jordan is the Jordan in
Gauss-Jordan elimination.
For matrix algebra to fruitfully develop one needed both proper notation and the proper definition
of matrix multiplication. Both needs were met at about the same time and in the same place. In
1848 in England, J.J. Sylvester first introduced the term matrix, which was the Latin
word for womb, as a name for an array of numbers. Matrix algebra was nurtured by the work of
Arthur Cayley in 1855. Cayley studied compositions of linear transformations and was led to define
matrix multiplication so that the matrix of coefficients for the composite transformation ST is the
product of the matrix for S times the matrix for T. He went on to study the algebra of these
compositions including matrix inverses. The famous Cayley-Hamilton theorem which asserts that
a square matrix is a root of its characteristic polynomial was given by Cayley in his 1858 Memoir
on the Theory of Matrices. The use of a single letter A to represent a matrix was crucial to the
development of matrix algebra. Early in the development the formula det(AB) = det(A)det(B)
provided a connection between matrix algebra and determinants. Cayley wrote There would be
many things to say about this theory of matrices which should, it seems to me, precede the theory
of determinants.
Mathematicians also attempted to develop of algebra of vectors but there was no natural definition
of the product of two vectors that held in arbitrary dimensions. The first vector algebra that involved
a noncommutative vector product (that is, v x w need not equal w x v) was proposed by Hermann
Grassmann in his book Ausdehnungslehre (1844). Grassmanns text also introduced the product of
a column matrix and a row matrix, which resulted in what is now called a simple or a rank-one
matrix. In the late 19th century the American mathematical physicist Willard Gibbs published his
famous treatise on vector analysis. In that treatise Gibbs represented general matrices, which he
called dyadics, as sums of simple matrices, which Gibbs called dyads. Later the physicist P. A. M.
Dirac introduced the term bra-ket for what we now call the scalar product of a bra (row) vector
times a ket (column) vector and the term ket-bra for the product of a ket times a bra, resulting
in what we now call a simple matrix, as above. Our convention of identifying column matrices and
vectors was introduced by physicists in the 20th century.
31
Matrices continued to be closely associated with linear transformations. By 1900 they were just a
finite-dimensional subcase of the emerging theory of linear transformations. The modern defi-
nition of a vector space was introduced by Peano in 1888. Abstract vector spaces whose
elements were functions soon followed.
There was renewed interest in matrices, particularly on the numerical analysis of matrices, after
World War II with the development of modern digital computers. John von Neumann and Herman
Goldstine introduced condition numbers in analyzing round-off errors in 1947. Alan Turing and von
Neumann were the 20th century giants in the development of stored-program computers. Turing
introduced the LU decomposition of a matrix in 1948. The L is a lower triangular matrix with 1s
on the diagonal and the U is an echelon matrix. It is common to use LU decompositions in the
solution of a sequence of systems of linear equations, each having the same coefficient matrix. The
benefits of the QR decomposition was realized a decade later. The Q is a matrix whose columns are
orthonormal vectors and R is a square upper triangular invertible matrix with positive entries on
its diagonal. The QR factorization is used in computer algorithms for various computations, such
as solving equations and find eigenvalues.
References
S. Athloen and R. McLaughlin, Gauss-Jordan reduction : A brief history, American Mathematical
Monthly 94 (1987) 130-142.
A. Tucker, The growing importance of linear algebra in undergraduate mathematics, The College
Mathematics Journal, 24 (1993) 3-9.
From M.A.Vitulli, Departement of mathematics, University of Oregon at Eugene (USA).
32