Vous êtes sur la page 1sur 32

Licence Sciences de lIngnieur

et
Licence Informatique

Niveau L2 (= 2eme anne)

Mathmatiques :
Rsum de ce quil faut savoir en Algbre linaire (ou Calcul Matriciel)
au sortir du L1, en pralable au cours dAlgbre linaire du L2,
concernant :

MATRICES
SYSTMES LINAIRES
DTERMINANTS

par J.-B. HIRIART-URRUTY, Professeur de mathmatiques

2007
2
Table des matires

I Matrices 5
I.1 Dfinitions de base. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
I.2 Matrices (trs) spciales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
I.3 Transposition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
I.4 Egalit de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I.5 Addition de matrices, multiplication dune matrice par un scalaire. . . . . . . . . . . 7
I.6 Multiplication de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I.7 Trace dune matrice carre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
I.8 Matrices inversibles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
I.9 Explication de la multiplication matricielle laide des transformations linaires. . . 10
I.10 Dfinitions complmentaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
I.11 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

II Systmes Linaires 15
II.1 Dfinition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
II.2 Procd dlimination de GAUSS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
II.3 Rang dune matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
II.4 Solutions de systmes linaires : existence de solutions, unicit. . . . . . . . . . . . . 20
II.5 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

III Dterminants 23
III.1 Dterminants dordre 1 et 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
III.2 Dterminants dordre 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
III.3 Dterminants dordre quelconque. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
III.3.1 Dfinition laide des permutations. . . . . . . . . . . . . . . . . . . . . . . . 24
III.3.2 Dveloppements suivant une ligne ou une colonne. . . . . . . . . . . . . . . . 25
III.4 Proprits gnrales des dterminants (important !). . . . . . . . . . . . . . . . . . . 25
III.5 Rgles importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
III.6 Inversion dune matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
III.7. Rsolution de systmes linaires laide de dterminants, autant dquations linaires
que dinconnues (systmes dits de CRAMER). . . . . . . . . . . . . . . . . . . . . . 27
III.8 Dterminants et volumes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
III.9 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

A Brief History of Linear Algebra and Matrix Theory 31

3
4
I. Matrices

I.1. Dfinitions de base.

dsignera ou ; ses lments seront appels des scalaires (des nombres rels ou complexes). Une
matrice coefficients dans est un tableau rectangulaire prsent habituellement de la manire
suivante :



a11 a12 ... a1n

a21 a22 ... a2n


m lignes .
.

.




am1 am2 . . . amn
| {z }
n colonnes

o les coefficients aij sont des lments de (des scalaires donc).


aij : terme de la i-me ligne et de la j-me colonne.
Notation recommande : LI-CO, ligne puis colonne dans lindice ij de aij .
Mm,n () : notation pour lensemble des matrices m n (ou (m, n)) coefficients dans . Si m = n,
on parlera de matrices carres et on se contentera de la notation Mn ().
Comme , Mm,n () Mm,n (). Pour certains rsultats concernant Mm,n (), on passera dans
Mm,n () puis on reviendra dans Mm,n () (comme, par exemple, pour la rsolution des quations
du second degr coefficients rels).
Dans A = [aij ] Mm,n (), il y a m n coefficients. Dans des calculs matriciels en Sciences de
lingnieur, m et n peuvent atteindre des millions.

I.2. Matrices (trs) spciales.

: m = n = 1 etA = [a], o a . On peut identifier et M1 ().


Les matrices (dites) scalaires
1 0 ... 0
0 1 . . . ...

La matrice identite : In = . . (des 1 sur la diagonale, des 0 partout ailleurs).

. .
.. .. 0
.
0 ... 0 1
Un peu plus gnral : les matrices (carres) diagonales :


a1 0 ... 0
.. .
. ..

0 a2 (a , . . . , a sur la diagonale,
1 n
diag(a1 , a2 , . . . , an ) =

.. .. .. des 0 partout ailleurs)


. . . 0
0 . . . 0 an

Les matrices (carres) triangulaires (infrieures, resp. suprieures)

5

@ @
0

@ @
A= ou A=
@ @


@
@



@
0 @


@ @
(aij = 0 si i < j) (aij = 0 si i > j)

a1

a2

Les matrices unicolonnes (ou matrices colonnes) : A = .. Mm,1 ()
.


am

a1

a2
de m .

On peut identifier cette matrice unicolonne avec le vecteur : ..
.


am
Matrices unilignes (ou matrices lignes) : dfinition mutatis mutandis.
A = [aij ] Mm,n () comporte m n coefficients aij .
La matrice diag (a1 , . . . , an ) comporte n(n 1) coefficients nuls ; les n autres coefficients a1 , . . . , an
la dterminent.
La matrice triangulaire

@
0

@
n(n1)
A= comporte coefficients nuls ; les n(n+1) autres coefficients aij la dtermine.
@
2 2
@
@
@
n(n1) n(n+1)
Noter que n2 2 = 2 ... qui est aussi 1 + 2 + ... + n.
Dans une matrice A Mn () , il y a n termes diagonaux et n2 n = n(n 1) = 2 n(n1)
2 termes
non diagonaux.

Exemple:
Matrice des coefficients dans un systme linaire.
(
5x 2y + z = 1
Dans (2 quations, 3 inconnues x, y, z)
3x + 4z = 5
" #
5 2 1
la matrice des coefficients des inconnues x, y, z est A = .
3 0 4

I.3. Transposition.

Si A Mm,n (), la matrice transpose de A, note AT ou t A (At est viter, car gnratrice
de confusions) est la matrice n m dont le terme (i, j) est le terme (j, i) de A (les lignes de A
deviennent les colonnes de AT , les colonnes de A deviennent les lignes de AT ).

Exemple:

" # 5 4
5 8 1
A= devient AT = 8 0 .

4 0 0
1 0

Lorsque A est coefficients complexes, on dfinit aussi la transconjuge (ou adjointe) A de A :

A = (AT ) (ou, ce qui revient au mme, (A)T ).

6
En bref, on transpose A et on prend les conjugues des termes de la matrice (ou dans lordre inverse).
Par exemple,
" # " #
5 i 5 1
A= devient A = .
1 2i i 2i

Une matrice (carre) A Mn () est dite symtrique lorsque AT = A, antisymtrique lorsque


AT = A (notions qui nont dintrt que pour des matrices coefficients rels).
Une matrice (carre) A Mn () est dite hermitienne lorsque A = A, antihermitienne lorsque
A = A (notion gnralisant les deux prcdentes au cas complexe).

I.4. Egalit de matrices.


A = [aij ] Mm,n () et B = [bij ] Mm,n () (les deux matrices sont donc de mme format !) sont
gales lorsque :
aij = bij pour tout i = 1, . . . , m et j = 1, . . . , n.

I.5. Addition de matrices, multiplication dune matrice par un sca-


laire.
A = [aij ] Mm,n () et B = [bij ] Mm,n () (les deux matrices sont donc de mme format !)
peuvent tre additionnes pour donner une nouvelle matrice [cij ] = C = A + B dfinie comme suit :

cij = aij + bij pour tout i, j (addition coefficient par coefficient).

Si A = [aij ] Mm,n () et c , la nouvelle matrice cA est dfinie naturellement comme ceci :

pour tout i, j le coef f icient (i, j) de cA est caij .

Quelques proprits (faciles) :


. A + B = B + A ; (A + B) + C = A + (B + C) (crit A + B + C sans ambigut)
. Si 0 est la matrice nulle (i.e. des coefficients 0 partout),
A + 0 = A,
A + (A) = 0.
. c(A + B) = cA + cB ; (c + d)A = cA + dA ; c(dA) = (cd)A.
. (A + B)T = AT + B T ; (cA)T = cAT ; (AT )T = A.
. (A + B) = A + B ; (cA) = cA ; (A ) = A.
@
I
(attention)
@

I.6. Multiplication de matrices.


Non, ce nest pas en multipliant les coefficients terme terme... too bad ! Mais a nest pas difficile
pour autant. Le produit C = AB (dans cet ordre) de A = [aij ] Mm,n () par B = [bkl ] Mr,p ()
nest dfini que si r = n, cest--dire : le nombre de colonnes de A = le nombre de lignes B,
auquel cas, C = [cij ] Mm,p () a pour coefficients :

n
X
cij = aik bkj = ai1 b1j + ai2 b2j + . . . + aip bpj .
k=1

Pour sen souvenir, rien de plus simple, adopter le schma de calcul suivant :

7
j j



# #bkj

##




# #
- n# # B
##
# #


? ## #


limportant est le n commun,
#
n ##


#
peu importe m et p ...
z }|
# # { #
# # #
# # #
# # A AB

j

#
m i # # #



aik (AB)ij

| {z }
p

Proprits (lorsque les multiplications en jeu sont possibles):


. (AB)C = A(BC) (on crira ABC sans ambigut).
. A(B + C) = AB + AC.
. (A + B)C = AC + BC.
. (cA)B = A(cB) = cAB.
. Si 0 est la matrice nulle, 0A = A0 = 0.
. Si In est la matrice identit, In A = AIn = A.
. (AB)T = B T AT . (attention linterversion de lordre !)
. Si A et B sont diagonales, il en est de mme AB.
. Si A et B sont triangulaires infrieures (resp.suprieures), la matrice AB est triangulaire infrieure
(resp. suprieure).

Exemples particuliers :

x1
a11 ... a1n x
2 a11 x1 + a12 x2 + . . . + a1n xn

a21 ... a2n
a21 x1 + a22 x2

+ . . . + a2n xn

.. .. . = ..
.
. . . .



am1 . . . amn am1 x1 + am2 x2 + . . . + amn xn
| {z }
xn | {z }
A Mm,n () matrice unicolonne ( Mm,1 ())

a11 ... a1n
h i a21 ... a2n " m
X m
X m
X
#

y1 y2 . . . yn .. .. = ai1 yi ai2 yi . . . ain yi
. .

i=1 i=1 i=1
am1 . . . amn
| {z }
| {z } matrice uniligne ( M1,n ())
A Mm,n ()
" # " #
h i a c x h i
x y = ax2 + by 2 + 2cxy (Attention, cest bien 2c !)
c b y | {z }
matrice scalaire
| {z }
A M2 ()

y1
" n #
h i
y2
X
x1 x2 . . . xn .. = xi yi
.

i=1
yn
| {z }
matrice scalaire

8
h i
x1 x2 . . . x n

x1 x21 x1 x2 . . . x1 xn

x2


x2 x1 x22 . . . x2 xn

.. = ..
. .


xn xn x1 xn x2 . . . x2n
| {z }
matrice carree (n, n) symetrique
Mises en garde !
AB 6= BA en gnral.
AB = 0 nimplique pas A = 0 ou B = 0, ni mme BA = 0.
AB = AC nimplique pas B = C, mme si A 6= 0.

I.7. Trace dune matrice carre.


Si A Mn (), on appelle trace de A la somme des lments diagonaux de A,

A = [aij ], trA = a11 + a22 + . . . + ann .

Proprits :
. tr(AB) = trA + trB ; tr(cA) = ctrA ; tr(AT ) = trA.
. Soit A Mm,n (), B Mn,m (), de sorte quon peut effectuer les deux produits AB et BA ;
ainsi AB Mm () et BA Mn () (elles peuvent donc tre de tailles trs diffrentes). Alors

tr(AB) = tr(BA)

Ceci est un rsultat trs utile . . . Attention, il est faux de dire que tr(AB) = (trA)(trB).
Exemple:
. tr(ABC) = tr(CAB) = tr(BCA) (utiliser deux fois le rsultat prcdent)... mais on ne peut pas
mettre A, B etC dans nimporte quel ordre.
x1
x2
n
X
T T
. Si X = ..
, tr(XX ) = tr(X X ) = x2i (Revoir pour ce cas extrme les exemples de la
.
| {z } | {z }
(n,n) (1,1) i=1
xn
page 8).

I.8. Matrices inversibles.


Une matrice (carre) A Mn () est dite inversible, ou rgulire, ou encore non singulire sil
existe B Mn () telle que
AB = BA = In .
En fait, il suffit davoir AB = In . . . sans se proccuper de BA (cela se dmontre laide des
dterminants).
Une telle matrice B est (unique et ) appele linverse de A ; elle est note A1 .
Lorsque A nest pas inversible, on dit quelle est singulire.
Proprits et rgles de calcul :
- Si A est inversible, il en est de mme de AT et (AT )1 = (A1 )T (de sorte que la notation AT
est accepte pour dsigner (A1 )T = (AT )1 ).
- Si A et B sont inversibles (et de mme taille), il en est de mme de AB et

(AB)1 = B 1 A1 (attention linterversion de lordre !)

9
- Si A est diagonale (resp. triangulaire infrieure, triangulaire suprieure) et inversible, alors A1
est diagonale (resp. triangulaire infrieure, triangulaire suprieure).

Exemple:

a11
a22


..
A= .. est inversible ds lors que tous les aii sont diffrents de 0, auquel cas
..
0

..
ann


1
a11
1


a22
A1 = ..

; ce qui est marqu dans les 2 matrices ne peut se comparer direc-
..
0 ..


..

1
ann
tement.

- Si A est inversible et c 6= 0, cA est inversible et (cA)1 = 1c A1 .


- Si A est inversible, (A1 )1 = A (On retombe sur ses pieds comme pour lopration de transpo-
sition).
- Attention ! Si A et B sont inversibles, on ne sait rien dire de A + B . . .
- Soit A Mn () et p un entier positif, alors la notation Ap signifie AA . . . A}. Si p = 0, on convient
| {z
p f ois
de ceci : A0 = In .
Avec la rgle dinversion rappele plus haut, on obtient : si A est inversible, Ap lest aussi et (Ap )1 =
(A1 )p ( de sorte que la notation Ap est accepte pour dsigner (Ap )1 = (A1 )p ).
Ainsi Ap est bien dfinie sans ambigut pour p entier relatif (p ).

I.9. Explication de la multiplication matricielle laide des trans-


formations linaires.
Le produit AB de deux matrices peut sembler bizarre . . . dautant que le terme (i, j) de AB nest pas
le produit des termes (i, j) de A et de B. Do cette manire de faire AB (cf. partie I.6) vient-elle ?
Considrons les 2 variables x1 et x2 sur lesquelles on fait une transformation linaire :
(
y1 =a11 x1 +a12 x2 ,
(1) [(x1 , x2 ) ont donn (y1 , y2 ) via (1)]
y2 =a21 x1 + a22 x2

Supposons que x1 et x2 taient elles-mmes le rsultat dune transformation linaire partir de


variables initiales w1 et w2 :
(
x1 =b11 w1 +b12 w2 ,
(2) [(w1 , w2 ) ont donn (x1 , x2 ) via (2)]
x2 =b21 w1 + b22 w2

Question : comment obtenir prsent y1 et y2 partir de w1 et w2 ? Un simple calcul partir de


(1) et (2) conduit :
(
y1 =a11 (b11 w1 + b12 w2 )+a12 (b21 w1 + b22 w2 ),
y2 =a21 (b11 w1 + b12 w2 )+ a22 (b21 w1 + b22 w2 )

soit encore :
(
y1 =c11 w1 +c12 w2 ,
(3)
y2 =c21 w1 + c22 w2

10
ou
(
c11 =a11 b11 +a12 b21 , c12 =a11 b12 +a12 b22 ,
(4)
c21 =a21 b11 +a22 b21 , c22 =a21 b12 + a22 b22

En reformulant (1) et (2) sous la forme matricielle :


" # " #" #
y a11 a12 x1
y= 1 =Ax=
y2 a21 a22 x2
" # " #" #
x1 b b w1
x= =Bw= 11 12 ,
x2 b21 b22 w2

on reconnat en (3) et (4) :


" # " #" #
y c c w1
y= 1 =Cw= 11 12 ,
y2 c21 c22 w2

o C = AB prcisment.

I.10. Dfinitions complmentaires.


- A et B dans Mn () sont dites semblables sil existe une matrice P inversible telle que

B = P 1 AP

Comme le suggre lappellation, deux matrices semblables A et B ont un certain nombre de


proprits communes ; par exemple : trB = trA (mais avec des matrices semblables, on est loin
des matrices gales !)

Exemple:

. A est semblable elle mme.


. Si A et B sont semblables, B et A le sont aussi.
. Si A et B sont semblables et si B et C sont semblables, alors A et C sont aussi semblables.
- A et B dans Mn () sont dites congruentes sil existe une matrice P inversible telle que

B = P T AP

- A Mn () est dite orthogonale si AT = A1


I
@
(attention)
@
Manires quivalentes de le voir :
. AAT = In
ou bien
. les colonnes de A (ou les lignes de A) sont des vecteurs unitaires orthogonaux deux deux
(on dit quelles forment un systme orthonormal).
- A Mn () est dite unitaire si A = A1 .
I
@
(attention)
@
De mme que hermitienne tait le pendant complexe de symtrique (cf. p.7), unitaire est
le pendant complexe de orthogonale.
Note : Si P est orthogonale et que B = P 1 AP (= P T AP ), A et B sont semblables et congruentes
(le pied !).

11
I.11. Exercices.
Exercice 1:
On sait que 0A = A0 = 0, o 0 dsigne la matrice nulle. Trouver deux matrices A et B de M2 ()
telles que le produit soit la matrice nulle.

0 0 3 1 2 4
. ; on vrifie que AB = 0 = et B = Rp. 1 : Soit par exemple A =
0 0 6 2 1 2
# " # " # "
Exercice"2: #
1 3
Soit A = .
4 3
!
x
1) Touver un vecteur colonne non nul u = tel que A. u = 3 u .
y
2) Dterminer tous les vecteurs vrifiant cette relation.
a
, o a est un paramtre rel quelconque. 2a 2) Les vecteurs de la forme
3
!
2
est un exemple. 1) Tout vecteur u non nul pour lequel 2x 3y = 0 ; u =
3
! Rp. 2 :

Exercice 3:
1 0 2 11 2 2
Montrer que A = 2 1 3 et B = 4 0 1 . sont inverses lune de lautre.

4 1 8 6 1 1
0 0 1
0 = 0 1 I3 Rp. 3 : On vrifie que AB =

1 0 0

Exercice 4:
Dterminer les inverses, sils existent, des matrices suivantes :
" # " # " #
5 3 2 3 2 6
A= , B= , C=
4 2 1 3 3 9

1/9 2/9 2 5/2


, C nest pas inversible. , B 1 = A1 =
1/3 1/3 1 3/2
# " # "
Rp. 4 :

Exercice 5:
Trouver une matrice A M2 () non diagonale, telle que A2 soit diagonale.

0 7 3 1
. , de sorte que A2 = Rp. 5 : Par exemple, A =
7 0 1 2
# " # "
Exercice 6: " #
8 57
Trouver une matrice triangulaire suprieure A M2 () telle que A3 =
0 27
0 3
Rp. 6 : A =
2 3
# "

12
Exercice 7:
Soit A Mn () et B Mn () deux matrices triangulaires suprieures. Montrer que AB est
encore une matrice triangulaire suprieure dont les lments diagonaux sont a11 b11 , a22 b22 ,...,ann bnn
(A = [aij ], B = [bij ]).
Exercice 8:
Trouver une matrice A M2 () orthogonale dont la premire ligne soit un multiple positif de (3,4).

4/5 3/5 4/5 3/5


ou bien A = Rp. 8 : A =
3/5 4/5 3/5 4/5
# " # "
Exercice 9:
Vrifier que la matrice P M3 () suivante est orthogonale.

1/ 3 1/ 3 1/3
P = p0 1/2 1/ 2

2/3 1/ 6 1/ 6

Exercice 10:
Montrer que la matrice A M2 () suivante est unitaire :
" #
1/3 i2/3 i2/3
A=
i2/3 1/3 i2/3

Exercice 11:
Calculer le produit AB par la technique du produit par blocs, avec :

1 2 1 1 2 3 1
A = 3 4 0 et B = 4 5 6 1

0 0 2 0 0 0 1
0 0 0 2
0 GT
= 19 26 33 7 Alors AB =
ER ES + F T
# 9 12 15 4 "

0 T 0 G
(attention, les 0 ne sont pas des blocs de mme taille). ,B= Rp. 11 : A =
R S E F
# " # "
Exercice 12:
Soit M diagonale par blocs, M = diag(A, B, C), o
" # " #
1 2 h i 1 3
A= ,B = 5 ,C = .
3 4 5 7

Calculer M 2 en se servant de la technique o on lve chaque bloc au carr.


40 64
16 24

25 Rp. 12 : M 2 =

15 22

10 7

13
Exercice 13:
Soit A Mn () ; montrer que :
i) A + AT est symtrique ;
ii) A AT est antisymtrique ;
iii) A = B + C, o B est symtrique et C antisymtrique.

Exercice 14:
Soit A Mn () ; montrer que :
i) A + A est hermitienne ;
ii) A A est antihermitienne ;
iii) A = B + C, o B est hermitienne et C antihermitienne.

Exercice 15:
On dit que les matrices A et B commutent lorsque AB = BA.
Les matrices suivantes commutent-elles ?
" # " # 1 2 2 0 0 1
3 4 6 2
a) A= et B = b) A = 2 4 5 et B = 1 1 0

4 3 2 9

0 4 1 1 1 0
" # 0 0 " # " #
3 2 2 3 2 2 1 0
c) A= et B = 1 1 d) A= et B =

2 4 3 2 4 3 1 0
1 1

Exercice 16:
Calculer (A + B)2 et A2 + 2AB + B 2 lorsque
" # " #
1 1 1 0
A= et B = .
0 1 1 1

Sous quelle condition (portant sur A et B) a-t-on (A + B)2 = A2 + 2AB + B 2 ?

Exercice 17: " #


0
Vrifier que la matrice I2 = (o est un scalaire quelconque) commute avec toutes les
0
matrices (2,2).
Montrer quil ny a pas dautres matrices qui jouissent de cette proprit.

1 0 0 0
. et B = suivants de B, B =
0 0 0 1
# " # "
c d
, on essaie de vrifier si AB = BA pour les choix particuliers Ind. : En prenant A =
a b
# "

14
II. Systmes Linaires

II.1. Dfinition.
Un systme linaire de m quations n inconnues x1 , x2 , . . . , xn est un ensemble dquations de
la forme :


a11 x1 + a12 x2 + . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . + a2n xn = b2

.. (1)


.

am1 x1 + am2 x2 + . . . + amn xn = bm

o les aij et bj sont des scalaires donns. Si les bj sont tous nuls, on parle dun systme homogne,
et x1 = 0, x2 = 0, . . . , xn = 0 est automatiquement solution.
Forme matricielle de (1) :

x1 b1

x2


b2

AX = b, ou A = [aij ], X = .. et b = .. (2)
. .


xm bm

II.2. Procd dlimination de GAUSS.


Nous le prsentons sur plusieurs exemples diffrents.

Exemple 1:
Matrice [ A b ]
xm
pivot 1 x2 + x3 = 0

1 1 1 0

1
(1x1 )
x1 + x2 x3 = 0 1 1 1 0
(3)

10x2 + 25x3 = 90 0 10 25 90

liminer
20x1 + 10x2 = 80 20 10 0 80

1ere tape : Elimination de x1 .


A laide de la 1ere quation et du terme pivot x1 , on va liminer x1 dans les autres quations.
Pour cela, on ajoute L1 (1ere ligne) la 2eme , on ajoute (20L1 ) la 4eme , on ne soccupe pas
de la 3eme puisque x1 ny figure pas. Cela conduit :

x1 x2 + x3 = 0
0 = 0
10x2 + 25x3 = 90
30x2 20x3 = 80

2eme tape : Elimination de x2 .


La 1ere quation, qui a servi dquation pivot, reste telle quelle. La 2eme ne contenant pas x2 , on
change lordre des quations de manire avoir un pivot non nul. On obtient ainsi les quations
rordonnes :

15
x1 x2  + x3

= 0 1 1 1 0
pivot 10 (10x2 ) 
10x2  + 25x3 = 90 0 10 25 90
(4)

liminer 30x2 20x3 = 80 0 30 20 80


0 = 0 0 0 0 0

A laide de la 2eme quation et du terme pivot 10x2 , liminer x2 dans les autres quations (1 seule
traiter ici) ; pour cela : on ajoute (3L2 ) la 3eme quation. Cela donne :


x1 x2 + x3 = 0 1 1 1 0
10x2 + 25x3 = 90 0 10 25 90
(5)

95x3 = 190 0 0 95 190


0 = 0 0 0 0 0

(Attention ne pas oublier de transformer les scalaires bj de droite dans ces oprations succes-
sives !)
3 eme tape : Rsolution en remontant dans les quations.
De la 3eme quation de (5) on tire directement x3 = 2 ; avec cette information, de la 2eme quation
on tire x2 = 4 ; connaissant x3 et x2 , de la 1ere quation on tire x1 = 2.
Rsum : (3) tait un systme de 4 quations 3 inconnues ; on en a tir une solution unique
(x1 = 2, x2 = 4, x3 = 2)

Cet exemple illustre les diverses oprations dans une limination de GAUSS :
- Multiplier une quation par un terme non nul
- Ajouter (ou soustraire) le multiple dune quation une autre
- Echanger lordre de deux quations.
.
Les oprations correspondantes sur la matrice augmente [A..b] sont : multiplier une ligne par un
terme non nul ; ajouter (ou soustraire) le multiple dune ligne une autre ; changer deux lignes.

Dfinitions:
Le systme linaire (1) est dit sur-dtermin sil y a plus dquations que dinconnues (m > n),
dtermin si m = n, et sous-dtermin sil y a moins dquations que dinconnues (m < n).
Le systme linaire (1) est dit compatible (ou consistant) sil a une solution au moins, incompa-
tible (ou inconsistant) sil na aucune solution.

Exemple 2 (Systme linaire une infinit de solutions):


Matrice [ A b ]
 
pivot 3x1  + 2x2 + 2x3 5x4 = 8

3 2 2 5 8
0, 6x1 + 1, 5x2 + 1, 5x3 5, 4x4 = 2, 7 0, 6 1, 5 1, 5 5, 4 2, 7 (6)

liminer 1, 2x 0, 3x 0, 3x + 2, 4x = 2, 1 1, 2 0, 3 0, 3 2, 4 2, 1
1 2 3 4

1ere tape : Elimination de x1 dans la 2eme et 3eme quation.


On ajoute (0, 2L1 ) la 2eme quation, on ajoute (0, 4L1 ) la 3eme . Cela conduit :


3x1 + 2x2  + 2x3 5x4 = 8 3 2 2 5 8
pivot 
1, 1x2 + 1, 1x3 4, 4x4 = 1, 1 0 1, 1 1, 1 4, 4 1, 1

liminer 1, 1x2 1, 1x3 + 4, 4x4 = 1, 1 0 1, 1 1, 1 4, 4 1, 1

16
2eme tape : Elimination de x2 dans la 3eme quation.
Pour cela : ajouter L2 L3 (3eme quation) ; cela donne :


3x1 + 2x2 + 2x3 5x4 = 8 3 2 2 5 8
1, 1x2 + 1, 1x3 4, 4x4 = 1, 1 0 1, 1 1, 1 4, 4 1, 1

0 = 0 0 0 0 0 0

3eme tape : Rsolution en remontant dans les quations.


De la 2eme quation on tire x2 = 1 x3 + 4x4 ; de ceci et de la 1ere quation, on tire x1 = 2 x4 .
Les valeurs de x3 et x4 peuvent-tre choisies comme on veut ; une fois ce choix fait, on
a x1 et x2 . Les solutions du systme propos sont donc : (2 x4 , 1 x3 4x4 , x3 , x4 ) x3 et x4
quelconques.

On a trait ici un systme sous-dtermin : (6) comportait 3 quations 4 inconnues.

Exemple 3 (Systme linaire une et une seule solution):


Matrice [ A b ]
 
 
pivot x1 +

x2 + 2x3 = 2 1 1 2 2
3x1 x2 + x3 = 6 3 1 1 6 (7)

liminer x + 3x2 + 4x3 = 4 1 3 4 4
1

1ere tape : Elimination de x1 dans la 2eme et 3eme quation.


ajouter (3L1 ) L2 , faire L3 L1 . Cela donne :


x1 + x2 + 2x3 = 2 1 1 2 2
pivot 2x2 + 7x3 = 12 0 2 7 12

liminer 2x2 + 2x3 = 2 0 2 2 2

2eme tape : Elimination de x2 dans la 3eme quation.


Pour cela : ajouter L2 L3 ; cela donne :


x1 + x2 + 2x3 = 2 1 1 2 2
2x2 + 7x3 = 12 0 2 7 12

5x3 = 10 0 0 5 10

3eme tape : Rsolution en remontant dans les quations.


De la dernire on tire x3 = 2, puis de la 2eme x2 = 1, enfin de la 1ere x1 = 1.

17
On a trait dans cet exemple un systme dtermin : ((7) comportait 3 quations 3 inconnues).
En dfinitive, ce systme linaire (7) possde une seule solution (x1 = 1, x2 = 1, x3 = 2).
Exemple 4 (Systme linaire sans solution):
Matrice [ A b ]
 
3x1 +

pivot 2x2 + x3 = 3 3 2 1 3
2x1 + x2 + x3 = 0 2 1 1 0 (8)

liminer
6x1 + 2x2 + 4x3 = 6 6 2 4 6

1ere tape : Elimination de x1 dans la 2eme et 3eme quation.


Pour cela, on ajoute 23 L1 L2 , on ajoute 2L1 L3 ; cela conduit :

3x1 + 2x2 + x3 = 3

3 2 1 3
pivot

13 x2 + 13 x3 = 2 0 13 1
3 2

liminer 2x2 + 2x3 = 0 0 2 2 0

2eme tape : Elimination de x2 dans la 3eme quation.


Pour cela, on ajoute 6L2 L3 ; cela donne :


3x1 + 2x2 + x3 = 3 3 2 1 3
13 x2 + 1
3 x3 = 2 0 13 1
2

3
0 = 12 0 0 0 12

3eme tape : Fin de la rsolution.


En raison de la 3eme quation qui est impossible, le systme (8) trait (3 quations, 3 inconnues)
na pas de solution.

A laide des oprations lmentaires du procd dlimination de Gauss, on peut toujours arriver
mettre un systme linaire sous une forme dite chelonne, cest--dire comme ceci :

a11 x1 + a12 x2 + . . . . . . . . . . . + a1n xn = b1 @


@
c22 x2 + . . . . . . . . . . . + c2n xn = b2
6 6
 @
.. r @
6= 0  .
0 =
@
6= 0 krr xr + krn xn = br ? m r ..
 0 = br+1 . (9)
6= 0 .
.. 0
0 = bm ?

avec a11 6= 0, c22 6= 0, . . . , krr 6= 0.

18
En clair : les lignes de A commencent par un nombre strictement croissant de zros mesure que
lindice des lignes augmente.
Il y a 3 cas de figure concernant le schma gnral(9) :
. Si r < m et que lun des bbj , r + 1 j m, nest pas nul : le systme est incompatible, (9) na
aucune solution. Ctait le cas dans lexemple 4, avec r = 2 < m = 3 et bbr+1 = bb3 = 12

b* * * *
b
b
b* * = *
0 12

. Si r = n et si les bbr+1 , . . . , bm
b sont nuls (sils sont prsents) : le systme a alors une et une seule
solution. Il suffit de remonter partir de la r = neme quation de (9). Ctait le cas dans lexemple
1, avec r = n = 3 et m = 4
b* * * *
b
b
b* * *
bb =
* *
0 0
. Si r < n et si les bbr+1 , . . . , bm
bsont nuls (sils sont prsents) : le systme a alors une infinit de
solutions. On choisit en effet xr+1 , . . . , xn comme on veut ; ensuite la (r 1)eme quation conduit
xr1 en fonction de xr , xr+1 , . . . , xn ; puis on continue en remontant dans les quations. Ctait
le cas dans lexemple 2 avec r = 2, n = 4 et m = 3.

b * * * * *
b
b
b* * * = *
0 0

II.3. Rang dune matrice.


Dfinitions:
Le rang dune matrice A = [aij ] est le nombre maximal de vecteurs lignes de A qui sont linairement
indpendants. On note rgA cet entier.

Noter que rgA nest nul que si A est la matrice nulle.


Exemple:

3 0 2 2
A = 6 42 24 54 M3,4 () (10)

21 21 0 15
est de rang 2 car :
- Les 3 vecteurs lignes sont linairement dpendants,
1
6L1 L2 L3 = 0;
2
- Les 2 premiers vecteurs lignes sont linairement indpendants (ils ne sont pas colinaires).
Proprits (essentielle):
Le rang de A est aussi le nombre maximal de vecteurs colonnes de A qui sont linairement indpen-
dants. Ainsi :
rg(AT ) = rgA

19
Exemple:
Reprenons la matrice A de (10) : puisque son rang est 2, il y a au moins 2 vecteurs colonnes
linairement indpendants ; et chaque fois quon prend 3 vecteurs colonnes, on est sr quils sont
linairement dpendants. Avouez que a ne saute pas aux yeux !

Retenir que pour A Mm,n (), rgA m et rgA n.


Note: Dans un systme linaire AX = b, avec m n (moins dquations que dinconnues, ce qui
est le cas usuel), il est frquent quon ait rgA = m (i.e. A est de "rang maximal").
Exemple:
Dans une matrice rectangulaire (m 6= n), soit les vecteurs lignes soit les vecteurs colonnes sont
(toujours) linairement dpendants.

II.4. Solutions de systmes linaires : existence de solutions, unicit.


Thorme:
Existence. Le systme linaire

AX = b, A Mm,n () et b m (11)
.
a des solutions si et seulement si la matrice A et la matrice "augmente" A = [A .. b] Mm,n+1 ()
ont le mme rang.
Unicit. Le systme linaire (11) a une et une seule solution si et seulement si rgA = rgA = n.
Infinit de solutions. Si rgA = rg A < n, le systme linaire(11) a une infinit de solutions.

Cas particulier :
AX = b avec A Mn () et b n (12)

(A matrice carre, il y a autant dquations que dinconnues).


Alors : !
rgA = n  
A est inversible .
(rang maximal donc)

Dans ce cas, (12) a une et une seule solution, qui est X = A1 b.

II.5. Exercices.
Exercice 1:
En utilisant le procd dlimination de Gauss, transformer le systme linaire suivant :


x 3y 2z = 6 x 6
(S) 2x 4y 3z = 8 , (AX = b), X = y , b = 8

3x + 6y + 8z = 5

z 5

en un systme quivalent de la forme T X = c, o T est une matrice triangulaire suprieure.


Rsoudre (S).

2
Solution du systme triangulaire quivalent, et donc du systme initial (S) : X = 3

1

7z = 14 0 0 7

2y + z = 4 , T = 0 2 1

x 3y 2z = 6 1 3 2

Rp. 1 :

20
Exercice 2:
Mettre les systmes linaires suivants sous forme chelonne :

x1
+ x2 2x3 + 4x4 = 5 x1 + x2 2x3 + 3x4 = 4

(S1 ) 2x 1 + 2x2 3x3 + x4 = 3 , (S2 ) 2x1 + 3x2 + 3x3 x4 = 3
+ 3x2 4x3 2x4 = 1

3x
5x + 7x + 4x + x = 5
1 1 2 3 4

0 0 0 0 0 0 0 0 0 5
0 0 1 7 7 , (S ) 0 1 7 7 5
2 (S1 )

1 1 0 10 9 1 1 2 3 4
Rp. 2 :

Exercice 3:
Dterminer si chacun des systmes linaires homognes suivants a une solution non nulle :


x
+ y z =0 x + y z =0

(S1 ) 2x 3y + z = 0 , (S2 ) 2x + 4y z = 0 ,
x 4y + 2z = 0

3x + 2y + 2z = 0


x1
+ 2x2 3x3 + 4x4 = 0
(S3 ) 2x1 3x2 + 5x3 7x4 = 0
+ 6x2 9x3 + 8x4 = 0

5x
1

trois quations ; il nest pas besoin ici de mettre sous forme chelon pour parvenir cette conclusion.
Le systme (S3 ) doit possder une solution non nulle, puisquil y a quatre inconnues pour seulement
z=0
Le systme na que la solution nulle y = 0 .

x=0

11z = 0

2y + z = 0
x + y
z =0

Mise sous forme chelonne de (S2 ) :
z=5
Une solution non nulle particulire est y = 3 (z variable libre).

x=2

5y + 3z = 0
x + y z =0
(
Rp. 3 : (S1 ) a autant dquations que dinconnues. Mise sous forme chelonne :

Exercice 4:
On considre le systme linaire suivant :

x
+ 2y + z = 3
(S) ay + 5z = 10 , o a et b sont des rels.

2x + 7y + az = b

1) Mettre (S) sous forme chelonne.


2) Pour quelles valeurs de a le systme (S) a-t-il une et une seule solution ?
3) Pour quelles valeurs du couple (a,b) le systme (S) a-t-il plus dune solution ?

21
22
Rp. 4 :
1)

x + 2y + z = 3
(S 0 ) ay + 5z = 10

(a2 2a 15)z = ab 6a 30
2) Le systme a une et une seule solution si, et seulement si, le coefficient de z dans la dernire
quation de (S 0 ) est 6= 0 ; cest--dire lorsque a 6= 5 et a 6= 3.
3) Le systme a plus dune solution (une infinit en fait) si le coefficient de z et le second membre
sont nuls ; cela donne deux possibilits : (a=5, b=12) et (a=-3, b=4).
III. Dterminants

A toute matrice carre n n, A = [aij ], on associe un scalaire particulier, appel dterminant de


A. Cet objet savre tre un outil indispensable ltude des proprits des matrices carres.
Le dterminant de A est not detA ou |A| (comme une valeur absolue ou un module). Cette deuxime
notation peut tre utilise dans les calculs intermdiaires pour allger les notations ; dans les autres
cas elle est gnratrice de confusion, la premire notation est prfrable.

III.1. Dterminants dordre 1 et 2.

" #
a b
Si A = [a], detA = a ; si A = , detA = ad bc @
c d @R
@

Exemple:
" #
4 3
A= ; detA = 14, det(A) = 14 aussi.
2 5

III.2. Dterminants dordre 3.



a11 a12 a13
. Soit A = a21 a22

a23 . Son dterminant est dfini comme suit (cest une des dfinitions

a31 a32 a33
quivalentes possibles !) :

detA = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31 a12 a21 a33 a11 a23 a32

Il y a dans ce dveloppement 6 produits de 3 lments de la matrice A, trois sont compts avec les
signe +, et les 3 autres avec les signe .
. Autre expression du dterminant dordre 3
22 a33 a23
detA = a11 (a a32 ) a12 (a21 a33 a23 a 31 ) + a13 (a 21 a32 a22 a31 )
a a a a a a
= a11 22 23 a12 21 23 + a13 21 22

a32 a33 a31 a33 a31 a32
= combinaison linaire de 3 dterminants dordre 2,

dont le calcul est reprsent sous la forme suivante :

a  a    
 
a11 
a12  a13 a11 a12 
a13 

11 12 a13
a21 a22 a23 a21 a22 a23 a21 a22 a23 (1)

a31 a32 a33 a31 a32 a33 a31 a32 a33
a11 ( . . . . . ) a12 ( . . . . . ) + a13 ( . . . . . )

23
Exemple:

1 2 3
2 3 4 3 4 2
4 2 3 = 1 2 + 3 = 55

5 1 0 1 0 5
0 5 1

III.3. Dterminants dordre quelconque.

III.3.1. Dfinition laide des permutations.


Une permutation de lensemble {1, 2, . . . , n} est une bijection de {1, 2, . . . , n} sur lui-mme ou,
de faon quivalente, un rarrangement (ou mlange) de ses termes.
Notation pour dsigner :
!
1 2 3 ... n
1 donne (1), 2 donne (2), . . ., n donne (n).
(1) (2) (3) . . . (n)
Exemple: !
1 2 3
est une permutation de {1, 2, 3}
3 2 1
!
1 2 3 4
est une permutation de {1, 2, 3, 4}
4 2 1 3

Lensemble de toutes ces permutations de {1, 2, . . . , n} est not Sn , elles sont au nombre de n !
Si Sn , on dsigne par le nombre dinversions dans , cest--dire le nombre de paires
((i), (j)) pour lesquelles (i) > (j) alors que i < j (ou encore, est le nombre dchanges
ncessaires pour repasser de ((1) (2) . . . (n)) (1 2 . . . n)).
La signature de est  = (1) , cest--dire 1 si est pair, 1 si est impair.
Exemple: !
1 2
= , = 1 et  = 1.
2 1
! !
1 2 3 1 2 3
= ,  = 1; = ,  = 1.
3 2 1 3 2 1
!
1 2 3 4 5
= , = 6 et  = 1.
3 5 1 4 2

Une transposition est une permutation particulire : elle change 2 lments i et j, en laissant
tous les autres leur place, soit :

1 2 ... i ... j ... n
H 
=


 HH
j
1 2 ... j ... i ... n

Dans ce cas, = 1, de sorte que  = 1.


Si  = 1, on dit que la permutation est paire ; si  = 1, on dit quelle est impaire.
La moiti des permutations de Sn (n 2) sont paires, et celles de lautre moiti sont impaires.
Voici une premire dfinition de detA pour A = [aij ] Mn () :
X
detA =  a1(1) a2(2) . . . an(n) . (2)
Sn

24
Exemple: ! ! " #
1 2 1 2 a11 a12
Pour n = 2, il y a 2 permutations : et . Ainsi, avec A = , detA =
1 2 2 1 a21 a22
a11 a22 a12 a21 .

III.3.2. Dveloppements suivant une ligne ou une colonne.

Soit A = [aij ]. On dsigne par Mij la matrice carre de taille n 1 obtenue en supprimant de A
sa ieme ligne et sa j eme colonne ; le dterminant |Mij | sappelle le mineur du coefficient aij ; le
mineur "sign" (1)i+j |Mij | = Aij est appel le cofacteur de aij .
Observer que le coefficient (1)i+j est 1 suivant la parit de la somme i + j des numros de ligne
et colonne de aij .
Thorme:
detA est gal la somme des produits obtenus en multipliant les lments dune ligne (ou dune
colonne) quelconque par leurs cofacteurs respectifs :

detA = ai1 Ai1 + ai2 Ai2 + . . . + ain Ain


(3)
= a1j A1j + a2j A2j + . . . + anj Anj
Revoir (1) la page 23 pour un exemple avec n = 3.
Ces relations (3), conjugues avec les oprations lmentaires sur les lignes (ou colonnes), permettent
des simplifications substantielles des calculs.

III.4. Proprits gnrales des dterminants (important !).


- Si tous les lments dune colonne (ou dune ligne) sont multiplis par une constante c, le dter-
minant est multipli par c.
- Echanger 2 colonnes (ou 2 lignes) change le signe du dterminant.
- Ajouter une colonne le multiple dune autre colonne ne change pas la valeur du dterminant
(idem pour les lignes).
- Si 2 colonnes (ou 2 lignes) sont les mmes, la dterminant est nul.

Exemple:
det(cA) = cn detA (attention ! cn et non c ...)

III.5. Rgles importantes.



a11 0 ......... 0
a12 0 . . . . . 0
.
Si A est triangulaire, A =


..
..
..

, detA = a11 a22 . . . ann .


..
.
ann
Un cas particulier est celui des matrices diagonales : si A = diag(c1 , . . . , cn ), detA = c1 c2 . . . cn .
Tout aussi utile est le cas des matrices diagonales par blocs (ou encore triangulaires infrieures ou
suprieures par blocs) :

.
. ..



..
..
..
0

..
..

si A = .. , detA = produit des dterminants par blocs diagonaux

..
..


..
(lesquels sont des matrices carres de tailles diverses)
..
0

..
.

25
Pour les calculs, on a donc intrt transformer A, laide doprations sur les lignes et colonnes,
de manire la rendre la plus "creuse" possible, cest--dire avec le plus de zros possibles comme
lments de A.

Exemple:
Calcul du dterminant dune matrice (4, 4)

2 0 -4 6 2 0 -4 6
4 5 1 0 0 5 9 -12 ligne 2 - 2(ligne 1)
=
0 2 6 -1 0 2 6 -1
-3 8 9 1 0 8 3 10 ligne 4 + 1,5(ligne 1)

2 0 -4 6
0 5 9 -12
=
0 0 2,4 3,8 ligne 3 -0,4(ligne 2)
0 0 -11,4 29,2 ligne 4 - 1,6(ligne 2)

2 0 -4 6
0 5 9 -12
=
0 0 2,4 3,8
0 0 0 47,25 ligne 4 + 4,75(ligne 3)

Le format auquel on est rendu est triangulaire ; en consquence, le dterminant en question vaut

2 5 2, 4 47, 25 = 1134

.det(A ) = detA
T

. det(AB) = det(BA) = detA.detB ( la diffrence du calcul sur les traces !)


Ainsi, si A est inversible, det(A1 ) = 1
detA .
Mais il ny a pas de rgle (simple) concernant det(A + B) !
Les 3 noncs suivants (concernant A Mn ()) sont quivalents :
. (i) A est inversible ;
(ii) le systme linaire AX = 0 na que la solution nulle X = 0 ;
(iii) detA 6= 0.
.Le rang de A en termes de dterminants.
Le rang de A (=le nombre maximal de vecteurs lignes (ou colonnes) de A qui sont linairement
indpendants) peut tre dtermin par calculs de dterminants de sous-matrices de A.
Thorme:
La matrice A, non nulle, est de rang r si et seulement si :
Il existe une sous-matrice (carre) de A, de taille (r, r), dont le dterminant nest pas nul ;
Toutes les sous-matrices (carre) de A, de taille plus grande que (r, r), ont un dterminant
qui est nul.

III.6. Inversion dune matrice.

On appelle comatrice de A, ou matrice des cofacteurs de A, la matrice cof A dont le terme (i, j)
est le cofacteur du terme aij de A :

cof A = [Aij ] (Aij = cof acteur de aij ) (4)

cof A est de mme format que A.

26
Proprit (gnrale) fondamentale :

A(cof A)T = (cof A)T A = (detA)In

Lorsque A est inversible, on a :

1
A1 = (cof A)T (5)
detA
(attention ne pas oublier cette opration de transposition).

Exemple: 9 11 5
23 46 23
2 3 4



A = 0 4 2 , Alors : detA = 46 et A1 = 1 7 2
.

23 23 23
1 1 5


2 5 4
23 46 23

Exemple:
" #
. A=
a b
c d
M2 () avec detA = ad bc 6= 0. Alors :

" #
1 1 d b
A = (suffisamment simple pour tre retenu par coeur).
ad bc c a

B 0
.
A=


0 C

avec B et C inversibles (pas de mme taille ncessairement).


Alors
B 1 0

1
A = .

0 C 1

Rsolution de systmes linaires laide de dterminants, autant


dquations linaires que dinconnues (systmes dits de CRAMER).

Thorme:
Le systme linaire (ou dquations linaires) AX = b, dtaille en


a11 x1 + a12 x2 + . . . a1n xn = b1 b1

a21 x1

+ a22 x2 + . . . a2n xn = b2
b2
n

.. A = [aij ] Mn (), b = ..
. .




a x
n1 1 + an2 x2 + . . . ann xn = bn bn

pour lequel D = detA 6= 0, a exactement une solution, qui est donne par

D1 D2 Dn
x1 = , x2 = , . . . , xn = (rgle de Cramer) (6)
D D D
o Dk est le dterminant dune matrice modifie de A en remplaant la k eme colonne par le
vecteur colonne b.

27
Exemple:
Rsoudre par cette mthode (qui nest pas la meilleure ici !) le systme :

x
+ y + z = 5
x 2y 3z = 1
2x + y z = 3

Rponses : D = 5, Dx = 20, Dy = 10, Dz = 15, dou x = 4, y = 2, z = 3.

III.8. Dterminants et volumes.


La notion de dterminant est intimement lie la notion daire (cas o n = 2) et de volume (cas
o n = 3).
Dans le plan (n = 2, 2D) ou dans lespace (n = 3, 3D) repr par un repre orthonorm (0; ~i, ~j) ou
(0; ~i, ~j, ~k), on va considrer les objets suivants :
6 P = { x~u + y~v | 0 x 1 et 0 y 1 } est le paralllogramme le ct ~u
et ~v .


  Si A = [~u ~v ] M2 () (matrice de colonnes ~u, ~v ), alors :
~v 

  1

 Aire(P ) = |detA| (ne pas oublier la valeur absolue !) (7)
0
  ~u -

On comprend que Aire(P ) = 0 lorsque le paralllogramme P est "aplati", i.e. lorsque ~u et ~v sont
colinaires (ou linairement dpendants).



 P = { x~u + y~v + z w~ | 0 x 1, 0 y 1 et 0 z 1 } est le
6

 
 paralllpipde de ct ~u, ~v et w.
~
w~

   ~ M3 (), alors :
Si A = [~u ~v w]
   
   
    
 vol(P ) = |detA| (8)
  

~ v  :
~
0

 u
 

-

Si, par exemple, w


~ est dans le plan engendr par ~u et ~v (~u, ~v et w
~ sont linairement dpendants), le
paralllpipde est "aplati" et son volume est nul.

III.9. Exercices.
Exercice 1:
1 1 1
On considre la matrice A = 2 3 4 .

5 8 9
Calculer detA, la comatrice cof A de A, A1 laide de detA et cof A.

1/2 3/2 1/2 1 2 1


= 1 2 1 . detA (cof A) cof A = 1 4 3 , A1 =
1 T
5/2 1/2 1/2 5 2 1
Rp. 1 : detA = 2 ;

Exercice 2:

28
Calculer le volume du paralllpipde S de 3 construit sur les vecteurs suivants :

1 1 1

(a) u=
1 ,

v=
3 ,

w=
2


1
4
5
1 2 5

(b) u=
2 ,

v=
1 ,

w=
7

4 3 9

(b) Vol S=0.


(a) Vol S=7,
Rp. 2 :

Exercice 3:
Calculer le dterminant de la matrice triangulaire infrieure par blocs suivante :

3 4 0 0 0

2 5 0 0 0

A= 0 9 2 0 0



0 5 0 6 7
0 0 4 3 4

3 4 2 5
= 7 2 3 = 42 det [2] det Rp. 3 : detA = det
6 7 3 4
# " # "
Exercice 4:
Soit P une matrice inversible ; montrer que detP 1 = 1
detP .

annonc.
Rp. 4 : Puisque P 1 P = In , et que det(P 1 P ) = det(P 1 )detP = detIn = 1, on a le rsultat

Exercice 5:
Soit A et B deux matrices semblables ; montrer que detB = detA.
detB = det(P 1 ).detA.detP = detA.
consquence,
Rp. 5 : A et B tant semblables, il existe une matrice P inversible telle que B = P 1 AP . En

Exercice"6: #
a b
Soit A = .
c d
Dterminer la matrice cof A. Que vaut cof (cof A) ? Quand-a-t-on A = cof A ?
b = c.
c d b a
= A. On a A = cof A lorsque a = d et ; cof (cof A) = Rp. 6 : cof A =
a b d c
# " # "
Exercice 7:
Soit A une matrice triangulaire, A = [aij ].
(a) Montrer que A est inversible si et seulement si tous les lments diagonaux aii sont non nuls.
(b) Montrer que si A est inversible, les lments diagonaux de A1 sont les inverses a1ii des lments
diagonaux de A.

Exercice8:
2 2 1
Soit A = 2 1 2 .

1 2 2

29
Calculer A2 .
En dduire que detA = 27.

Comme det(A2 ) = (detA)2 , on en dduit que detA = 33 = 27.


Rp. 8 : A2 = 9I3 . Do det(A2 ) = 93 .

Exercice9:
1 1 1
Soit A = a b c , o a, b et c sont des scalaires .

b+c a+c a+b
Montrer que detA = 0.

Exercice 10:
Dterminer le rang des matrices suivantes :

2 5 1 1 3 4 1
A = 3 4 2 , B = 1 4 3 1 .

1 1 3 1 1 2 1

Exercice11:
1 1 1
Soit A = 2 3 1 .

1 2 1
1) Calculer A2 , A3 , puis A3 3A2 2A.
2) En dduire que A est inversible et dterminer A1 .
3) Rsoudre le systme linaire suivant :

x
+ y z = a
(S) 2x + 3y + z = b , ou a b et c sont des scalaires quelconques.
x 2y z = c

a + b + c c z
y = A b = a 2b 3c .
1
a + 3b + 4c a x
3) La solution est
.
1 1 1
A1 = A2 3A 2I3 = 1 2 3

1 3 4

2) De A3 3A2 2A = I3 , 2I3 )
on tire A(A2 3A = do : I3 ,
4 5 0 14 19 1
1) A2 = 7 9 0 , A3 = 25 34 2 , de sorte que A3 3A2 2A = I3 .

4 6 1 15 20 1
Rp. 11 :

30
A Brief History of Linear Algebra and Matrix Theory

The introduction and development of the notion of a matrix and the subject of linear algebra
followed the development of determinants, which arose from the study of coefficients of systems
of linear equations. Leibnitz, one of the founders of calculus, used determinants in 1693 and Cramer
presented his determinant-based formula for solving systems of linear equations (today known as
Cramers Rule) in 1750. In contrast, the first implicit use of matrices occurred in Lagranges work
on bilinear forms in the late 1700s. Lagrange desired to characterize the maxima and minima of
multivariate functions. His method is now known as the method of Lagrange multipliers. In order
to do this he first required the first order partial derivatives to be 0 and additionally required that
a condition on the matrix of second order partial derivatives hold ; this condition is today called
positive or negative definiteness, although Lagrange didnt use matrices explicitly.
Gauss developed Gaussian elimination around 1800 and used it to solve least squares pro-
blems in celestial computations and later in computations to measure the earth and its surface (the
branch of applied mathematics concerned with measuring or determining the shape of the earth or
with locating exactly points on the earths surface is called geodesy. Even though Gauss name is
associated with this technique for successively eliminating variables from systems of linear equa-
tions, Chinese manuscripts from several centuries earlier have been found that explain how to solve
a system of three equations in three unknowns by Gaussian elimination. For years Gaussian elimi-
nation was considered part of the development of geodesy, not mathematics. The first appearance
of Gauss-Jordan elimination in print was in a handbook on geodesy written by Wilhelm Jordan.
Many people incorrectly assume that the famous mathematician Camille Jordan is the Jordan in
Gauss-Jordan elimination.
For matrix algebra to fruitfully develop one needed both proper notation and the proper definition
of matrix multiplication. Both needs were met at about the same time and in the same place. In
1848 in England, J.J. Sylvester first introduced the term matrix, which was the Latin
word for womb, as a name for an array of numbers. Matrix algebra was nurtured by the work of
Arthur Cayley in 1855. Cayley studied compositions of linear transformations and was led to define
matrix multiplication so that the matrix of coefficients for the composite transformation ST is the
product of the matrix for S times the matrix for T. He went on to study the algebra of these
compositions including matrix inverses. The famous Cayley-Hamilton theorem which asserts that
a square matrix is a root of its characteristic polynomial was given by Cayley in his 1858 Memoir
on the Theory of Matrices. The use of a single letter A to represent a matrix was crucial to the
development of matrix algebra. Early in the development the formula det(AB) = det(A)det(B)
provided a connection between matrix algebra and determinants. Cayley wrote There would be
many things to say about this theory of matrices which should, it seems to me, precede the theory
of determinants.
Mathematicians also attempted to develop of algebra of vectors but there was no natural definition
of the product of two vectors that held in arbitrary dimensions. The first vector algebra that involved
a noncommutative vector product (that is, v x w need not equal w x v) was proposed by Hermann
Grassmann in his book Ausdehnungslehre (1844). Grassmanns text also introduced the product of
a column matrix and a row matrix, which resulted in what is now called a simple or a rank-one
matrix. In the late 19th century the American mathematical physicist Willard Gibbs published his
famous treatise on vector analysis. In that treatise Gibbs represented general matrices, which he
called dyadics, as sums of simple matrices, which Gibbs called dyads. Later the physicist P. A. M.
Dirac introduced the term bra-ket for what we now call the scalar product of a bra (row) vector
times a ket (column) vector and the term ket-bra for the product of a ket times a bra, resulting
in what we now call a simple matrix, as above. Our convention of identifying column matrices and
vectors was introduced by physicists in the 20th century.

31
Matrices continued to be closely associated with linear transformations. By 1900 they were just a
finite-dimensional subcase of the emerging theory of linear transformations. The modern defi-
nition of a vector space was introduced by Peano in 1888. Abstract vector spaces whose
elements were functions soon followed.
There was renewed interest in matrices, particularly on the numerical analysis of matrices, after
World War II with the development of modern digital computers. John von Neumann and Herman
Goldstine introduced condition numbers in analyzing round-off errors in 1947. Alan Turing and von
Neumann were the 20th century giants in the development of stored-program computers. Turing
introduced the LU decomposition of a matrix in 1948. The L is a lower triangular matrix with 1s
on the diagonal and the U is an echelon matrix. It is common to use LU decompositions in the
solution of a sequence of systems of linear equations, each having the same coefficient matrix. The
benefits of the QR decomposition was realized a decade later. The Q is a matrix whose columns are
orthonormal vectors and R is a square upper triangular invertible matrix with positive entries on
its diagonal. The QR factorization is used in computer algorithms for various computations, such
as solving equations and find eigenvalues.
References
S. Athloen and R. McLaughlin, Gauss-Jordan reduction : A brief history, American Mathematical
Monthly 94 (1987) 130-142.
A. Tucker, The growing importance of linear algebra in undergraduate mathematics, The College
Mathematics Journal, 24 (1993) 3-9.
From M.A.Vitulli, Departement of mathematics, University of Oregon at Eugene (USA).

32

Vous aimerez peut-être aussi