Vous êtes sur la page 1sur 48

See

discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/242566476

Un rappel sur les matrices

Article July 2013

CITATIONS READS

0 7,002

1 author:

Patrice Wira
Universit de Haute-Alsace
110 PUBLICATIONS 575 CITATIONS

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Physics of Solar Cells and Systems View project

Fuzzy control View project

All content following this page was uploaded by Patrice Wira on 28 May 2014.

The user has requested enhancement of the downloaded file.


Un rappel

sur les matrices

Patrice Wira

Universit de Haute-Alsace
Facult des Sciences et Techniques

2000 - 2001
Sommaire

Calculs matriciels (matrix algebra) ........................................................................................ 1


1. Reprsentation matricielle et notations................................................................................................. 1
2. Laddition ................................................................................................................................................ 1
Laddition matricielle...................................................................................................................................... 1
Proprits de laddition ................................................................................................................................... 2
Exemples : laddition et la soustraction matricielle ........................................................................................ 2
Exemples : laddition et la combinaison linaire de deux vecteurs................................................................. 3
3. Le produit................................................................................................................................................ 3
La multiplication dune matrice avec un scalaire............................................................................................ 3
Proprits de la multiplication entre une matrice et un scalaire ...................................................................... 4
La multiplication matricielle ........................................................................................................................... 4
Proprits lmentaires de la multiplication matricielle.................................................................................. 4
Quelques exemples.......................................................................................................................................... 5
Un produit matriciel particulier : le produit de Hadamard .............................................................................. 5
4. Les produits vectoriels............................................................................................................................ 5
Le produit interne............................................................................................................................................ 6
Le produit vectoriel ......................................................................................................................................... 7
Le produit mixte.............................................................................................................................................. 7
Le produit externe ........................................................................................................................................... 7
Proprits des produits scalaire et vectoriel .................................................................................................... 8
Interprtation gomtrique .............................................................................................................................. 8
Exemples :..................................................................................................................................................... 10
5. Loprateur de transposition ............................................................................................................... 10
Proprits lmentaires de la transposition ................................................................................................... 10
6. Matrices particulires........................................................................................................................... 10
La matrice nulle ............................................................................................................................................ 10
Matrice diagonale.......................................................................................................................................... 11
La matrice identit......................................................................................................................................... 11
Matrice triangulaire....................................................................................................................................... 11
Matrices symtrique et antisymtrique.......................................................................................................... 11
Matrice idempotente...................................................................................................................................... 11
Proprits de la matrice nulle ........................................................................................................................ 11
Proprit de la matrice identit...................................................................................................................... 12
7. Matrices partitionnes.......................................................................................................................... 12
8. Le dterminant dune matrice ............................................................................................................. 13
Quelques proprits du dterminant dune matrice :..................................................................................... 13
Quelques thormes ...................................................................................................................................... 13
9. Les mineurs, les cofacteurs et la matrice adjointe ............................................................................. 14
Les mineurs ................................................................................................................................................... 14
Les mineurs directeurs .................................................................................................................................. 14
Les cofacteurs ............................................................................................................................................... 14
La matrices adjointe ...................................................................................................................................... 15
Proprits ...................................................................................................................................................... 15
Exemples....................................................................................................................................................... 15
Calcul du dterminant dune matrice avec les cofacteurs ............................................................................. 15
Calcul de la solution dun systme dquations linaires - Rgle de Cramer................................................ 16
10. Matrice inverse et pseudo-inverse ....................................................................................................... 17
1er cas, m = n : ............................................................................................................................................ 18
Proprits de la matrice inverse : .................................................................................................................. 18
Calcul de la matrice inverse : ........................................................................................................................ 18
Calcul de l'inverse d'une matrice partitionne............................................................................................... 19
2me cas, m < n :.......................................................................................................................................... 19
3me cas, m > n :.......................................................................................................................................... 19
Proprits de la pseudo-inverse :................................................................................................................... 20
Dtermination rcursive de la pseudo-inverse (thorme de Grville) : ....................................................... 20
Le Lemme dinversion matricielle (The matrix inversion Lemma) .................................................... 20
Le noyau d'une matrice ................................................................................................................................. 21
Rsolution de lquation AXB = C ........................................................................................................... 21
11. Indpendance linaire de vecteurs, la singularit .............................................................................. 22
12. Le rang dune matrice .......................................................................................................................... 22
Proprit :...................................................................................................................................................... 22
13. La trace dune matrice ......................................................................................................................... 23
Proprit :...................................................................................................................................................... 23
14. La norme ............................................................................................................................................... 23
La norme vectorielle ..................................................................................................................................... 23
La norme matricielle ..................................................................................................................................... 24
15. Lorthogonalit ..................................................................................................................................... 25
Proprits ...................................................................................................................................................... 25
Quelques thormes ...................................................................................................................................... 25
16. Valeurs et vecteurs propres ................................................................................................................. 25
Proprits ...................................................................................................................................................... 26
17. Diagonalisation dune matrice ............................................................................................................. 26
Intrt de la diagonalisation .......................................................................................................................... 27
Puissance n-me d'une matrice...................................................................................................................... 27
18. Formes quadratiques............................................................................................................................ 28
19. Dfinitivit ............................................................................................................................................. 28
20. Changement de base ............................................................................................................................. 29
Dfinition d'une base..................................................................................................................................... 29
Application : plusieurs repres dans l'espace 3D .......................................................................................... 30
Application : les axes principaux d'une ellipse ............................................................................................. 33
21. Matrice racine carre ........................................................................................................................... 34
Les fonctions vectorielles (matrix calculus) ......................................................................... 36
1. La diffrentiation et lintgration par rapport un scalaire ............................................................ 36
Quelques proprits sur la drivation :.......................................................................................................... 36
2. Dfinition d'une fonction vectorielle ................................................................................................... 37
3. Le gradient dune fonction scalaire..................................................................................................... 37
4. La Jacobienne dune fonction vectorielle............................................................................................ 38
5. La Hessienne dune fonction scalaire .................................................................................................. 38
6. La drivation chaine ........................................................................................................................... 39
7. Expansions en srie de Taylor et de Maclaurin.................................................................................. 39
Expansion en srie de Taylor d'une fonction scalaire multivariable ............................................................. 39
Srie de Taylor deux variables ................................................................................................................... 40
Srie de Taylor une variable ( lordre n)................................................................................................... 40
Srie de Maclaurin une variable ( lordre n)............................................................................................. 40
Srie de Maclaurin deux variables.............................................................................................................. 41
Expansion en srie de Maclaurin d'une fonction scalaire multivariable........................................................ 41
Bibliographie........................................................................................................................... 42
Annexe ..................................................................................................................................... 42
Calculs matriciels (matrix algebra)

1. Reprsentation matricielle et notations


Une matrice est un tableau rectangulaire dlments, gnralement des nombres ou des
fonctions. Ces grandeurs sont gnralement des rels ou des complexes. Dans la suite, nous ne
considrerons que des grandeurs relles. Une matrice A de dimension m*n est note
A R m*n . Cette matrice est une matrice de m lignes et de n colonnes :
a11
a1n
A = aij = . aij

am1
amn
Une matrice V qui ne comporte quune seule colonne, V R m*1 , est appel un vecteur
colonne :
v1
V = .

v2
Une matrice V qui ne comporte quune seule ligne, V R1*n , est appel un vecteur ligne :
V = [v1 v2 ] .
Par convention, tout vecteur est dsign comme une matrice colonne.
Si m = n, alors la matrice est carre.

2. Laddition

Laddition matricielle
Laddition matricielle nest dfinie quentre deux matrices de mme dimensions. La matrice
rsultante est de la mme dimension que les matrices additionnes et chacun de ses lments
est la somme des lments des deux matrices correspondant la mme ligne et la mme
colonne.
Soient A R m*n et B R m*n . Laddition de ces deux matrices est donne par :
C = cij = aij + bij .

On la note : C = A + B , C R m*n .
Il en va de mme pour la soustraction, au signe prs. La soustraction des matrices A et B
est donne par :
C = cij = aij bij .

Patrice Wira -1- 1999


On la note : C = A B , C R m*n .

Proprits de laddition
En considrant trois matrices, A R m*n , B R m*n et C R m*n , on a les trois proprits
suivantes :

A+B=B+A Commutativit (commutative law).


C( A + B) = CA + CB Distributivit (distributive law).
A + ( B + C) = ( A + B ) + C Associativit (associative law).

Exemples : laddition et la soustraction matricielle


1 4 0 5 2 6
Si A R 2*3 et B R 2*3 tel que A = , B= , alors :
2 7 3 0 1 1

1 + 5 4 + 2 0 + 6 6 6 6
A+B= = et
2 + 0 7 + 1 3 + 1 2 8 4
4 2 6
AB= .
2 6 2

Patrice Wira -2- 1999


Exemples : laddition et la combinaison linaire de deux vecteurs

L'addition de deux vecteurs (de dimensions Une combinaison linaire de deux vecteurs
2, v, w R ) 2
permet de dfinir un v R 2 et w R 2 est l'addition de deux
paralllogramme. Le vecteur rsultant u vecteurs qui on fait subir un changement
est une des diagonale du paralllogramme. de longueur par des coefficients scalaires.
4 4
Prenons par exemple v= et Reprenons les vecteurs exemple v = et
2 2
1 1
w = , on obtient alors : w= :
3 3
4 1 3 4 1
u= v+w = + = u = 2 v + w = 2 +
2 3 5 2 3
8 1 9 9
= + = =
4 3 1 1

-
-
w -
- -
- | | | | | | | | | | | |- |
- u u -
- -
w -2 v
- v -
| |- | | | | | |
Figure 1: L'addition de deux vecteurs. Figure 2 : La soustraction de deux vecteurs.

3. Le produit

La multiplication dune matrice avec un scalaire


La multiplication entre une matrice et un nombre scalaire donne une matrice dont chaque
lment de la matrice est multipli par le scalaire.
Etant donn A R m*n une matrice, et b un scalaire, alors les lments de la matrice C
rsultante sont donns par :
cij = baik .

La matrice C = bA est de mme dimension que A , C R m*n .

Patrice Wira -3- 1999


Proprits de la multiplication entre une matrice et un scalaire
Si c est un scalaire, alors :

c A = Ac Commutativit, A R m*n .
c ( A + B ) = cA + cB Distributivit, A R m*n et B R m*n .
c( AB) = (cA )B = A( cB) = ( AB)c Associativit, o AB est la multiplication
matricielle entre les matrices A R m*n et
B R n* p .

Si c et b sont des scalaires, alors :


(b + c ) A = bA + cA Distributivit, A R m*n .
(bc ) A = b(cA ) Associativit, A R m*n .

La multiplication matricielle
La multiplication entre deux matrices nest dfinie que lorsque leurs dimensions son
compatibles : le nombre de colonnes de la matrice gauche de loprateur doit correspondre
au nombre de lignes de la matrice droite de loprateur.
Si A R m*n , et si B R n* p , la multiplication entre les matrices A et B donne une
matrice C de dimensions m*p telle que tous ses lments :
n
cij = aik bkj .
k =1

On note cette opration : C = A * B = AB , . .

Proprits lmentaires de la multiplication matricielle


AB BA La commutativit nest pas toujours vraie
(the commutative law is usually broken).

C( A + B) = CA + CB Distributivit gauche
(distributive law from the left)
avec A , B R m*n et C R p*m .

Patrice Wira -4- 1999


( A + B)C = AC + BC Distributivit droite
(distributive law from the right)
avec A , B R m*n et C R n* p .

A( BC) = ( AB)C Associativit (associative law)


avec A R m*n , B R n* p et C R p*q .

Quelques exemples

5 3 8 2 6
Si A R 2*2 et B R 2*3 tel que A = , B= , alors
4 2 7 0 9

5 3 8 2 6 5(8) + ( 3)(7) 5( 2) + ( 3)0 5(6) + ( 3)(9) 19 10 3


AB = = =
4 2 7 0 9 4(8) + 2(7) 4( 2) + 2(0) 4(6) + 2(9) 46 8 42

Si on dispose dun vecteur ligne x R 4 et dun vecteur colonne y R 4 tel que


x = [1 3 5 1] et y = [ 2 4 2 6] , alors
T

2
4
xy = [1 3 5 1] = [1( 2) + 3(4) + 5(2) + ( 1)(6) ] = 14 .
2

6

Un produit matriciel particulier : le produit de Hadamard


La matrice rsultante du produit de Hadamard entre deux matrices de mme taille contient
le rsultat dune multiplication lment par lment.
On note le produit entre les matrices A R m*n et B R m*n :
C = A B , C R m*n ,
C = cij = aij bij .

4. Les produits vectoriels


Si laddition de vecteur nest pas trs diffrente de laddition matricielle, il nen va pas de
mme en ce qui concerne la multiplication. En effet, multiplier deux vecteurs na pas la mme

Patrice Wira -5- 1999


signification que multiplier deux matrices, cest pourquoi on distingue les produits vectoriels
des produits matriciels.
La multiplication de deux vecteurs peut tre dfinie de trois faon diffrentes, selon que le
rsultat est un scalaire, un vecteur ou une matrice. On les appelle respectivement produit
interne (scalaire), vectoriel et produit externe.
Les produits interne et externe sont des cas particulier de la multiplication matricielle dfinie
en toute gnralit prcdemment.

Le produit interne
Soient deux vecteurs de mme dimension, x R n et y R n . On appelle produit interne (en
Anglais on parlera de inner product ou de vector dot product ) la somme des
multiplications lments par lments de chaque vecteur :
n
x T , y = xT y = y T x = yi xi .
i =1

Cette opration retourne un scalaire. Le produit interne est aussi appel produit scalaire, il
nest dfini que si les deux vecteurs sont de mme taille.
Le produit interne est un moyen de mesurer comment deux vecteurs sont parallles. Deux
vecteurs sont orthogonaux si leur produit scalaire est nul.

Remarque : angle en deux vecteurs.


Si deux vecteurs qui ne sont pas parallles forment un angle entre eux.
Si x et y sont deux vecteurs Euclidiens, alors ils forment un angle dfinit par :
x, y
cos = .
x y

Les deux vecteurs x et y sont dit orthogonaux quand leur produit interne est nul ( =90),
on le note x y .

Remarque : parfois le produit entre deux matrices en galement appel produit scalaire, mais
lordre de x et y est important : xT y y T x qui donne un nombre, et quil faut diffrencier
de yxT (produit externe) qui est une matrice.

Patrice Wira -6- 1999


Le produit vectoriel
Le produit vectoriel de deux vecteur se traduit en Anglais par vector product ou cross
product . Le produit vectoriel de deux vecteurs de trois composantes est dfini par :
x1 y1 x2 y3 x3 y2
x y = x2 y2 = x3 y1 x1 y3 .
x3 y3 x1 y2 x2 y1

Formellement, ce produit peut tre considr comme un dterminant, avec les vecteurs
(i, j, k ) constituants la base dans la premire colonne :
i x1 y1
x2 y2 x1 y1 x1 y1
xy = j x2 y2 = i j+ k,
x3 y3 x3 y3 x2 y2
k x3 y3
x y = ( x2 y3 x3 y2 )i + ( x3 y1 x1 y3 ) j + ( x1 y2 x2 y1 )k .

Remarque : ce nest pas un vrai dterminant dans le sens o il ne retourne pas une grandeur
scalaire.

Le produit mixte
Soit trois vecteurs x , y et z R n . Le nombre rel (x y ).z , c'est dire le produit scalaire
du vecteur x y par le vecteur z , s'appelle le produit mixte des trois vecteurs x , y , z
(dans cet ordre). Le rsultat est un scalaire. On parle en Anglais de scalar triple product .

Le produit externe
Considrons deux vecteurs de dimensions diffrentes, x R m et y R n . On appelle produit
externe (traduit en Anglais par outer product ou dyadic product ) :
x1 y1 x1 yn
x, y = xy =
T
xi y j , avec i = 1,..., m , j = 1,..., n .

xm y1 xm yn
z = zij = xy T = xi y j , avec i = 1,..., m , j = 1,..., n .

Cette opration retourne une matrice de m lignes et n colonnes. Ce produit peut tre dfini
comme un produit matricielle.
Le produit externe joue un rle important lorsquil sagit de dterminer comment sont
corrls les lments dun vecteur avec ceux dun autre.

Patrice Wira -7- 1999


Remarque : si x = [1 2 3 10]
T
contient toutes les valeurs possibles entre 1 et 10,
alors z = xx contient les tables de multiplication jusqu 10 :
T

1 2 3 4 5 6 7 8 9 10
2 4 6 8 10 12 14 16 18 20

3 6 9 12 15 18 21 24 27 30

4 8 12 16 20 24 28 32 36 40
5 10 15 20 25 30 35 40 45 50
xxT = .
6 12 18 24 30 36 42 48 54 60
7 14 21 28 35 42 49 56 63 70

8 16 24 32 40 48 56 64 72 80
9 18 27 36 45 54 63 72 81 90

10 20 30 40 50 60 70 80 90 100

Proprits des produits scalaire et vectoriel


Soient x , y et z trois vecteurs R n et soit a un scalaire.
Le produit scalaire est distributif : x.( y + z ) = x.y + x.z .
est commutatif : x.y = y.x .
est associatif : ( ax ).y = a ( x.y ) .

Le produit vectoriel est distributif : xx ( y + z) = xxy + xxz .


Nest PAS commutatif : xxy = yxx .
est associatif : ( ax ) xy = a ( xxy ) .

Interprtation gomtrique

Patrice Wira -8- 1999


Z Z
B
A aire = AxB
BxA B

AxB
A.B A

X X
Y Y

Figure 3: Les produits scalaire ( gauche) et vectoriel ( droite) de deux vecteurs.

Le produit scalaire :
Le scalaire qui est retourn est proportionnel la projection du premier vecteur sur le second.
Cet opration est frquemment utilise pour mesurer lorthogonalit de deux vecteurs mais
aussi pour dcrire la composante dun vecteur dans une direction particulire.

Le produit vectoriel :
Le produit vectoriel, not A B est un vecteur orthogonal A et B . Il est nul si A et B
sont parallles. Il est utilis pour dterminer la normale de deux droites. Cest ainsi quon
dfini le vecteur normal dune surface en un point quelconque.

Le produit mixte :
La valeur absolue du produit mixte est le produit de la longueur de la projection du vecteur
z sur la perpendiculaire au plan de mme direction que les vecteurs x et y sur la surface du
paralllogramme construit sur les vecteurs x et y . Autrement dit, c'est le volume du
paralllpipde construit sur les trois vecteurs x , y et z . On dit aussi que le produit mixte
reprsente le volume algbrique de ce paralllpipde.

x y z
y

Figure 4: Le produit mixte de trois vecteurs.

Patrice Wira -9- 1999


Exemples :
Considrons un espace de dimensions trois dfini par les vecteurs i , j et k .
Les vecteurs x et y scrivent par rapport cette base :
x = xi i + x j j + xk k et y = yi i + y j j + yk k .
Le produit scalaire de x et y vaut alors :
x.y = x y cos( x, y ) = xi yi + x j y j + xk yk .

Le produit vectoriel vaut quand lui


xxy = ( x j yk xk y j )i + ( xk yi xi yk ) j + ( xi y j x j yi )k ,
et xxy = x y sin( x, y ) .

On rappelle que x = ( xi2 + x 2j + xk2 )1 2 .

5. Loprateur de transposition
La transpose dune matrice A est la matrice A T (note parfois aussi A ' ) dfinie par :
A R m*n , A T R n*m ,
A = aij m*n , AT = a ji n*m .

Proprits lmentaires de la transposition


( A T )T = A o A R m*n .
( A + B )T = A T + BT avec A , B R m*n .
( AB)T = BT A T o A R m*n , B R n* p et
n

AB = aik bkj .
k =1 m* p

6. Matrices particulires

La matrice nulle
La matrice dont tous les termes sont nuls est appele matrice nulle. On la note A = 0 :
aij = 0 , i , j .

Patrice Wira - 10 - 1999


Matrice diagonale
Une matrice diagonale A R n*n est une matrice carre dont tous les lments non diagonaux
sont nuls, c'est dire que aij = 0 , i j . Elle est de la forme :
a11 0 0
0
A = aij = aij .
0

0 0 ann

La matrice identit
Une matrice identit est une matrice diagonale A R n*n (donc carre) qui voit tous ses
lments nuls sauf ceux de sa diagonale principale qui sont unitaires. On la note I n ou I :
aij = 0 i j
A=I , .
aii = 1 i = 1,..., n

Matrice triangulaire
Une matrice triangulaire suprieure (respectivement infrieure) est une matrice carre
A R n*n dont les lments qui se trouvent au-dessous (respectivement au-dessus) de la
diagonale principale sont nuls, c'est dire telle que aij = 0 , i > j ( i < j ). Elle est donc de
la forme :
a11 a12 a1n a11 0 0
0 a22
A = aij =
(respectivement A = a = a21 a22 ).
ij 0

0 0 ann an1 ann

Matrices symtrique et antisymtrique


Soit A R n*n une matrice carre.
- Si A T = A , alors A est dite matrice symtrique.
- Si A T = A , alors A est dite matrice antisymtrique.

Matrice idempotente
Considrons une matrice carre A R n*n . Si AT A = A , alors A est dite idempotente.

Proprits de la matrice nulle


Soit A une matrice, A R m*n :

Patrice Wira - 11 - 1999


A0 = 0A = 0 Cest loprateur nul de la multiplication
A+0=0+A = A Cest loprateur neutre de laddition

Proprit de la matrice identit


Soit A une matrice, A R m*n :
AI = IA = I Cest loprateur neutre de la multiplication

7. Matrices partitionnes
La composante de base dune matrice A de dimensions quelconques est aij . Il est parfois
intressant de considrer une matrice en tant que tableau de matrices lmentaires.
Soit :
A A12 m
A = aij = 11
A 21 A 22 n ,
p q
avec A11 R m* p , A12 R m*q , A 21 R n* p , A 22 R n*q .

La matrice A est une matrice de m+n lignes et de p+q colonnes, A R ( m + n )*( p + q ) .

B1
Considrons une seconde matrice B partitionne ainsi : B = , o B1 R p*1 , B 2 R q*1 .
B2
On peut alors crire :
A A12 B1 A11B1 + A12 B 2
AB = 11 = .
A 21 A 22 B 2 A 21B1 + A 22B 2

Cette relation est souvent utilise avec les notations suivantes :


A B E AE + BF
C D F = CE + DF .

Toutes les sous-matrices doivent comporter des dimensions compatibles avec les rgles du

produit matriciel.

La transpose d'une matrice partionne est donne par :


T
A B AT CT
C D = T .
B DT

Patrice Wira - 12 - 1999


8. Le dterminant dune matrice
On appelle dterminant dune matrice A carre, A R n*n , le nombre not det( A ) ou | A |
et gal :
n
det(A ) = ( 1)i +1 ai1det(A i ) o A i est la matrice obtenue en rayant la
i =1

1re colonne et la i-ime ligne.

a11
a12
Si n = 2, det(A ) = = a11a22 a12 a21 .
a21 a22
Si n = 3, det(A ) = a11a22a33 + a13a32 a21 + a12 a23a31 a11a23a32 a22a13a31 a33a12 a21 .
Lorsque le dterminant dune matrice est nul, on dit que la matrice est singulire.

Remarques :
n
det(A ) = akj ckj pour tous les lignes k de A .
j =1
n
det(A ) = ail cil pour tous les colonnes l de A .
i =1

Quelques proprits du dterminant dune matrice :


det( AB) = det( A )det(B) avec A R n*n .
1
det( A 1 ) = avec A R n*n .
det( A )
D E
det ( A ) = det = det ( G ) det ( D EG F ) = det ( D ) det ( G FD E )
1 1

F G
D E
o A = R n*n , D R m*m et les dimensions des matrices E , F et G sont
F G
en accord avec celles de A et D ; D1 doit exister

Quelques thormes
1. Si tous les lments d'une ligne (colonne) d'une matrice A R n*n sont nuls alors
det( A) = 0 .
2. Si tous les lments d'une ligne (colonne) du dterminant d'une matrice A R n*n sont
multipli par un scalaire k, alors le dterminant est multipli par k.
3. Si B est obtenue partir de A R n*n en changeant deux de ces lignes (colonnes), alors
det(B) = det( A) .
4. Si B est obtenue partir de A R n*n en faisant passer la i-me ligne (colonne) par
dessus p lignes (colonnes), alors det(B) = (1) p det( A ) .

Patrice Wira - 13 - 1999


5. Si deux lignes (colonnes) de A R n*n sont identiques, alors det( A ) = 0 .
6. Si, aux lments dune ligne (colonne) on ajoute k fois les lments correspondants dune
autre ligne (colonne), la valeur du dterminant reste inchange.

Pour tous ces thormes, on trouvera la dmonstration dans (Ayres, 1991).

Le calcul du dterminant d'une matrice A R 3*3 peut tre calcul par la rgle dite de Sarrus
(Christol et al. 1996, p. 108).

9. Les mineurs, les cofacteurs et la matrice adjointe

Les mineurs
Les mineurs mij des lments aij dune matrice A carre, A R n*n , sont les dterminants de
la partie restante de A lorsquon ne tient pas compte de la ligne i et de la colonne j.

Les mineurs directeurs


Les mineurs directeurs dune matrice A carre, A R n*n , appels aussi mineurs principaux
(en Anglais leading minors ) sont dfinis comme suit :
m1 = a11
a a
m2 = det 11 12
a21 a22
a
m3 = det 11
a33
...
mn = det ( A )

Les cofacteurs
Les cofacteurs cij des lments aij dune matrice A carre, A R n*n , sont donns par :
cij =( 1)i + j mij .

Le cofacteur est souvent aussi not ij .

Patrice Wira - 14 - 1999


La matrices adjointe
La matrice des cofacteurs cij des lments aij dune matrice A carre, A R n*n , lorsquelle

est transpose, est appel la matrice adjointe de A . On note gnralement cette matrice A
ou encore adj( A ) .
T
c11 c1n
T
A = adj( A ) = cij = cij ,

cn1 cnn
adj(A ) = CT , avec C = cij

Proprits

A A = A A = A I o A est le dterminant de la matrice A .
adj(AB) = adj(A).adj(B) .

Exemples
a11 a12 a13
En ce qui concerne la matrice A R , A = a21 3*3
a22 a23 , nous avons le mineur

a31 a32 a33
a a a a12
m23 = 11 12 et le cofacteur cij = ( 1) 2+3 m23 = 11 .
a31 a32 a31 a32

Calcul du dterminant dune matrice avec les cofacteurs


La valeur dun dterminant dordre n dune matrice carre A R n*n est la somme des n
produits obtenus en multipliant chaque lment dune ligne (colonne) donne de la matrice
par son cofacteur.

On peut donc, par exemple, calculer le dterminant dordre 3 de la matrice A R 3*3 ,


a11 a12 a13
A = a21 a22 a23 par un dveloppement selon la seconde colonne :

a31 a32 a33
det(A ) = a12 c12 + a22 c22 + a32 c32
a a a11 a13 a11 a13 .
= a12 21 23 + a22 a a32 a
a31 a33 31 a33 21 a23

Patrice Wira - 15 - 1999


En choisissant judicieusement la ligne (ou la colonne) par laquelle en effectue le
dveloppement, on peut trs largement simplifier les calculs. On cherchera notamment
effectuer les dveloppement selon les lignes ou les colonnes qui comportent le plus de valeurs
nulles.
3 5 8
1 2
Ainsi, si A = 1 0 2 , alors det(A ) = 5 = 5{1(3) 2(4)} = 25 .
4 3
4 0 3

Calcul de la solution dun systme dquations linaires - Rgle de Cramer


On peut dterminer la solution dquations linaires par les dterminants. On appelle cette
mthode la rgle de Cramer.
Soit le systme de trois quations linaires trois inconnues x1 , x2 et x3 :
a11 a12 a13 x1 b1
a a22 a23 x2 = b2 .
21
a31 a32 a33 x3 b3

Soit A le dterminant de la matrice A R 3*3 .


La valeur numrique des coefficients de A est multiplie par x1 si chaque lment de la
premire colonne est multiplie par x1 (thorme 2) :
x1a11 a12 a13
x1 A = x1a21 a22 a23

x1a31 a32 a33

En ajoutant chaque lment de la premire colonne de ce dernier dterminant, x2 fois


llment correspondant d la seconde colonne et x3 fois llment de la troisime colonne
(thorme 6), on obtient :

x1a11 + x2 a12 + x3a13 a12 a13 b1 a12 a13


x1 A = x1a21 + x2a22 + x3a23 a22 a23 = b2 a22 a23 ,

x1a31 + x2a32 + x3a33 a32 a33 b3 a32 a33
cest dire
b1 a12 a13
b a22 a23
2
b3 a32 a33
x1 = , condition que A 0 .
A

Patrice Wira - 16 - 1999


Il en va de mme pour x2 et x3 :

a11 b1a12 a13


a b2 a23
21
a31 b3 a33
x2 = ,
A
a11 a12 b1
a a b2
21 22
a31 a32 b3
x3 = .
A

Cette rgle peut tre applique nimporte quel systme de n quations linaires n
inconnues, pourvu que le dterminant des coefficients aij soit diffrent de zro.

10. Matrice inverse et pseudo-inverse


Deux matrices A et B sont inverses si leur produit est gal la matrice identit : AB = I ,
alors B = A 1 .
Les matrices inverse, et plus gnralement les pseudo-inverses, trouvent leurs applications
la rsolution des systmes dquations linaires quelles que soient leurs dimensions :
y = Ax ,
A R m*n , y R m est le vecteur cherch, x R n est le vecteur des connaissances.
Linverse gnralise dun tel systme est not A + .
Linverse gnralise A + satisfait les conditions suivantes :
AA + A = A
A + AA + = A +
( AA + )T = AA + Condition de symtrie
+ +
(A A) = A A
T

La solution dun systme linaire partir de la pseudo-inverse A + scrit alors : x = A + y .


La rsolution dun tel systme met en vidence trois cas. Selon les dimensions m et n , on
dfinira les matrices inverse, pseudo-inverse gauche et pseudo-inverse droite.
La matrice inverse est la solution d'un problme qui possde autant d'inconnues (variables
dtermines) que de contraintes. Cela ne signifie pas pour autant qu'il existe une solution.

Patrice Wira - 17 - 1999


La pseudo-inverse gauche est une solution dun problme sur-dtermin, qui contient des
informations redondantes, elle minimise lerreur quadratique moyenne, mean square error
en Anglais.
La pseudo-inverse droite est une solution dun problme sous-dtermin, qui ne contient pas
suffisamment dinformation pour donner une solution unique, mais donne une solution
particulire, celle qui minimise la norme quadratique.
En fait, ces deux pseudo-inverses qu'on appelle gnralement matrice inverse gnralise de
Moore-Penrose, sont donnes par :
A + = lim 0 ( A T A + 2 I) 1 A T = lim 0 A T ( AA T + 2I) 1 .

Si les colonnes de A sont linairement indpendantes, on peut prendre = 0 .

1er cas, m = n :
Cest la cas dune matrice carre. Si A est une matrice non singulire (cest dire
det( A ) 0 ), alors A + = A 1 est la matrice inverse de A . La matrice A 1 vrifie la
proprit A 1A = AA 1 = I n .

Proprits de la matrice inverse :


Si A et B sont deux matrices non singulires, A R n*n et B R n*n , alors :
( A 1 ) 1 = A
( A 1 )T = ( A T ) 1
( AB) 1 = B 1A 1 (par extension ( ABC) 1 = C1B 1A 1 si la
matrice C est inversible.
1
det( A 1 ) =
det( A )
A( I n + A) = ( I n + A) 1 A
1
si ( I n + A) 1 existe.
A( I n + A) 1 + ( I n + A) 1 = I n si ( I n + A) 1 existe.
A( I n + BA) 1 = ( I m + AB) 1 A si A R m*n , B R n*m et si ( I n + BA) 1
et ( I m + AB) 1 existent.
( I m + AB) 1 + A( I n + BA) 1 B = I m si A R m*n , B R n*m et si ( I n + BA) 1
et ( I m + AB) 1 existent.

Calcul de la matrice inverse :


La matrice inverse A 1 dune matrice A carre, A R n*n , est donne par la relation :
adj( A )
A 1 = .
det( A )

Patrice Wira - 18 - 1999


Pour quune matrice soit inversible, il faut que sont dterminant soit diffrent de 0. On dit
alors que la matrice est rgulire ou non singulire.

Exemple lorsque n = 2 :
a11 a12 a11 a21
Si A = , on dtermine A T = puis on remplace chaque lment de A T
a21 a22 a12 a22
a22 a12
par son cofacteur pour dterminer adj(A ) = .

21a a11

On calcule det(A ) = a11a22 a12 a21 , puis on dtermine la matrice inverse A 1 en divisant
chaque lment de adj(A ) par det(A ) .

On peut galement calculer l'inverse d'une matrice A par la mthode du pivot de Gauss
(Christol et al. 1996, p. 19) dans le cas particulier o la matrice est carre et est inversible.
Le systme, caractris par la matrice A , est alors dit systme de Cramer ou systme
rgulier dans ce cas.

Calcul de l'inverse d'une matrice partitionne


D E
Soit A R n*n une matrice partitionne en quatre sous-matrices telle que : A = , o
F G
D R m*m et les dimensions des matrices E , F et G sont en accord avec celles de A et D .
L'inverse A 1 de la matrice A est donne par :
D1 + D1E(G FD1E) 1 FD1 D1E(G FD1E)1
A 1 =
(G FD1E) 1 FD1 (G FD1E) 1
si D1 existe.

2me cas, m < n :


Il existe une infinit de solution, parmi lesquelles ont peut retenir celle qui minimise la norme
x :
A + = A T ( AA T ) 1
Cette matrice est appele pseudo-inverse droite, elle vrifie la proprit AA + = I m .

3me cas, m > n :


Il existe une solution approche au sens des moindres carrs :
A + = ( A T A ) 1 A T
Cette matrice est appele pseudo-inverse gauche, elle vrifie la proprit AA + = I n .

Patrice Wira - 19 - 1999


Proprits de la pseudo-inverse :
Si A est une matrice et un scalaire, R* :
(A + )+ = A
( A ) + = 1A +
( A + )T = ( A T ) +
A + = ( A T A ) + A T = A T ( AA T ) +
AA T ( A + ) + A T = A
A T AA + = A T
rang( A + ) = rang( A ) = rang(A T )

Dtermination rcursive de la pseudo-inverse (thorme de Grville) :


Soit A R m*n . La dtermination rcursive de la matrice pseudo-inverse de A repose sur
lide de partition de A en colonnes.
A un instant k donn, la pseudo-inverse est calcule partir de A k+1 et de la colonne
courante dindice k de la matrice A .
Soit A k = A k 1 ak o ak dsigne la k-ime colonne de A k , alors (Kohonen, 1984, p. 51) :
A ( I a pT )
A k+ = k 1 T k k
pk
(I A A + )a / (I A A + )a 2
si
k 1 k 1 k k 1 k 1 k (I A k 1A +k 1 )a k 0
o p k = 2
( A +k 1 )T A +k 1a k /(1 + A +k 1a k ) sinon
Les conditions initiales sont les suivantes :
A1 = a1
aT (aT a ) 1 si a1 0
A1+ = 1T 1 1
0 sinon

Le Lemme dinversion matricielle (The matrix inversion Lemma)


Considrons l'expression suivante :

A 1 = B 1 + CT D 1C [1].

Quelle est alors l'expression de A = ( A 1 ) 1 ?


Multiplions [1] gauche par A :
I = AB 1 + ACT D 1C [2].

Multiplions [2] droite par B :


B = A + ACT D 1CB [3].

Patrice Wira - 20 - 1999


Multiplions [3] droite par CT :
BCT = ACT + ACT D 1CBCT = ACT D 1 (D + CBCT ) [4].

Multiplions [4] droite par [D + CBCT ]1 :


BCT [D + CBCT ]1 = ACT D 1 [5].

Multiplions [5] droite par CB :


ACT D 1CB = BCT [D + CBCT ]1 CB [6].

Retranchons [6] de B :
B ACT D 1CB = B BCT [D + CBCT ]1 CB [7].

D'aprs [3], on tire que ACT D 1CB = B A et on peut dduire que :


A = B BCT [D + CBCT ]1 CB [8].

Finalement, on retiendra une des deux formulations suivantes :


= B + CD A 1 = B 1 B 1CDT B 1[1 + DT B 1C]1


T
A

A =B +C
1 1 T
D 1C A = B BCT [D + CBCT ]1 CB

Le noyau d'une matrice


Pour un systme d'quations homognes Ax = 0 , A R m*n , x R n , l'ensemble des solutions
x constitue un espace vectoriel appel noyau de A , not Ker( A ) . La dimension de cet
espace sera note N A .

Remarque : Une quation linaire a1 x1 + a2 x2 + a3 x3 + ...an xn = h est dite non homogne si


h 0.

Thorme : pour A R m*n on a rang(A ) + N A = n .

Rsolution de lquation AXB = C


Considrons l'quation AXB = C (Kohonen, 1984, p.53), avec A , B et C des matrices
quelconques dont les dimensions sont en accords avec les rgles de la multiplication
matricielle et o l'inconnu dterminer est X .
La condition ncessaire et suffisante pour avoir une solution cette quation est :

Patrice Wira - 21 - 1999


AA + CB + B = C .

La solution gnrale est de la forme :


X = A + CB + + Y A + AYBB + ,
avec Y de mmes dimensions que X .

Une solution particulire est X = A + CB + (cas pour Y = 0 ), c'est la solution dont la norme
Euclidienne est minimale.

11. Indpendance linaire de vecteurs, la singularit


Soit un ensemble a1 , a2 ,..., a n de n vecteurs de dimension m, et 1 , 2 ,..., n un ensemble de
scalaires.
n
Le vecteur dfini par c = a
i =1
i i forme une combinaison linaire de vecteurs, note {ai } .

Lensemble des vecteurs {ai } est linairement indpendants si :


c = 0 1 = 2 = ... = i = ... = n = 0

Soit A une matrice, A R m*n .


- Les colonnes de A sont linairement indpendantes si et seulement si A T A est une
matrice non singulire de rang plein,
- Les lignes de A sont linairement indpendantes si et seulement si A T A est non
singulire.

Une matrice carre A R n*n , est dite non singulire (ou inversible) si B R n*n telle que :
AB = BA = I det( A ) 0 .

12. Le rang dune matrice


Le rang dune matrice correspond au nombre maximum de colonnes ou de lignes linairement
indpendantes. Cest aussi lordre du plus grand dterminant non nul. Si k est cet ordre, on
dit que la matrice est de rang k.
Une matrice A , A R m*n , est dite de rang plein si : rang( A ) = min( m, n ) .

Proprit :
Quelle que soit une matrice A , A R m*n ,
rang( A ) = rang( A T ) = rang( AA T ) = rang( A T A ) .

Patrice Wira - 22 - 1999


13. La trace dune matrice
La trace dune matrice A , A R n*n est gale la somme des lments de la diagonale de
cette matrice :
n
trace( A ) = aii .
i =1

Proprit :
trace( AB) = trace(BA ) A R n*n , B R n*n .
(trace( ABT ))
=B A R n*m , B R n*m .
A
(trace( ABA T ))
D= = 2AB D R n*m et A R n*m , B R m*m .
A

14. La norme

La norme vectorielle
On appelle p-norme, la norme note galement Lp dun vecteur x R n :
1/ p
n p
x p
= xi .
i =1
Les normes les plus usuelles sont :
n
- la norme L1 galement appele norme absolue, x 1 = x
i =1
i ,
1/ 2
n 2
la norme L2 ou norme Euclidienne, x = x 2 = xi = ( xT x )
1/ 2
- .
i =1
Voici quelques proprits de la norme Euclidienne, x et y R :
n

- x+y x + y ,
- xT y x . y ,
- v.w v w si v R n et w R n , on appelle cette proprit l'ingalit de
Schwartz.

La norme Euclidienne est aussi appel norme quadratique (cest la distance Euclidienne).
Une norme peut tre pondre. Ceci est surtout utilis en Physique, lorsque les lments dun
vecteur sont de nature diffrente (reprsentent des grandeurs dans des units diffrentes).

Soit x un vecteur normer, x R n , on pose, y R n : y = Dx .


On calcule alors la norme (Euclidienne par exemple) du vecteur y plutt que celle de x :

Patrice Wira - 23 - 1999


y = ( yT y ) = Dx = ( xT DT Dx ) = ( x T Qx ) .
1/ 2 1/ 2 1/ 2

La matrice Q = DT D est une matrice de pondration de la forme quadratique x T Qx


prsente dans lexpression de la norme y .

Pour la matrice D R n*n , on prend souvent une matrice diagonale avec chaque terme comme
tant linverse de la valeur maximale que peut prendre llment concern :
1 x1max 0
D= 1 xi max .

0 1 xn max

La norme matricielle
Il existe plusieurs normes matricielles. La norme dune matrice peut tre dfinie dans
diffrent sens, elle doit satisfaire les contraintes poses par nimporte quel espace (Kohonen,
1984, p.47).
Les normes matricielles, sont dfinies de la mme faon que les normes vectorielles.
On appelle p-norme d'une matrice A , A R m*n , la norme :
1/ p
m n
= aij
p
A p .
i =1 j =1

La norme matricielle la plus connue et la plus utilises est l'quivalente de la norme


Euclidienne chez les vecteurs, on l'appelle la norme de Frobenius :
A = A E
= trace( A T A ) ,
1/ 2
m n
A = aij
2
.
i =1 j =1

La norme de Frobenius est la norme Euclidienne au sens matricielle, qui nest pas compatible
avec la norme Euclidienne vectorielle (it is not consistent with the Euclidean vector norm).
Si A est une matrice carre, A R n*n , et x un vecteur de n lments, :
Ax = x .

La norme suivante est elle compatible avec la norme vectorielle :


A = max x =1 Ax .

Patrice Wira - 24 - 1999


15. Lorthogonalit
Lensemble des vecteurs {ai } , ai R n , i = 1,..., k , est orthogonal si :
T
ai a j = 0, i j .

Ce mme ensemble est orthogonal si :


T
ai a j = 0, i j ,
T
ai ai = 1, i .

Ceci se note galement :


ai a j = ij ,
T

o ij est loprateur de Kronecker.


Une matrice carre A R n*n est dite orthogonale si ses colonnes forment un ensemble
orthogonale :
A T A = AA T = I n A T = A 1 .

Proprits
Si A est une matrice carre orthogonale, A R n*n , et x un vecteur de n lments, x R n :
Ax = x
( Ax ) ( Ay ) = x
T T
y
Si A R m*n
, la condition dorthogonalit se traduit par A T A = I n .

Quelques thormes
1. Si A est une matrice orthogonale, son inverse et sa transpose le sont galement.
2. Le produit de plusieurs matrices orthogonales est une matrice orthogonale.
3. Le dterminant d'une matrice orthogonale est gal 1 .

16. Valeurs et vecteurs propres


Soit A une matrice carre, A R n*n . Les valeurs propres i de cette matrices (appeles
aussi valeurs caractristiques) sont les racines de lquation polynomiale :
det( A i I) = 0

Lensemble des valeurs propres dune matrice constitue son spectre.

Patrice Wira - 25 - 1999


Les vecteurs propres (ou vecteurs caractristiques) v i de cette matrices se dduisent de la
dfinition suivante :
Av i = i v i

Comme le systme est indtermin, les vecteurs propres sont obtenus une constante
multiplicative prs, cest dire que lon dtermine des directions propres.

Remarques :
det( A i I) = 0 est appel polynme caractristique de A .
i I A est appel la matrice caractristique de A .
Deux matrices sont dites semblables si elles ont le mme polynme caractristique.

Proprits
Si A est une matrice carre, A R n*n , ayant pour valeurs propres i , i = 1,..., n :
n
det( A ) = i
i =1
n
trace( A ) = i
i =1

17. Diagonalisation dune matrice


Si les valeurs propres dune matrice A R n*n sont relles et simples, on obtient n directions
propres distinctes que lon peut utiliser comme axes de coordonnes. Dans ce nouveau
systme daxes, la matrice A devient une matrice D diagonale telle que :
1 0
D= i .

0 n

Soit P la matrice forme par les composantes des vecteurs propres v i :


P = [ v1...v i ...v n ] .

Cette matrice ( P R n*n ) est appele la matrice modle de A . On montre alors que (Christol
et al., 1996, p 141) :
D = P 1AP .

La diagonalisation d'une matrice permet de rsoudre de faon lgante des problmes qui
peuvent sembler complexes au premier abord (Rotella et Borne, 1995).

Patrice Wira - 26 - 1999


Elle est souvent, dans le cas des problmes complexes (les problmes bass sur l'inversion de
matrices singulires), l'unique faon de procder. On utilise alors d'autres mthodes pour
calculer les valeurs propres (Strang, 1993).
Les mthodes numriques prennent galement de plus en plus d'importance dans le calcul
d'inversion de telles matrices (Stoer et Bulirsch, 1993).

Intrt de la diagonalisation
Considrons le systme diffrentiel linaire suivant, reprsent dans une base quelconque :
x = Ax .
Il est constitu de n quations diffrentielles du premier ordre dpendantes. Effectuons le
changement de base dfini par :
x = Py ou y = P 1x .
Le systme diffrentiel devient alors :
y = P 1x = P 1Ax = P 1APy ,

donc en fait : y = Dy ,

o D est une matrice diagonale. La rsolution du systme diffrentiel obtenu par


changement de base se rduit alors n quations diffrentielles du premier ordre
indpendantes.
La diagonalisation permet galement la simplification et ltude des formes quadratiques
(Cairoli, 1991). Une autre application directe de la diagonalisation d'une matrice est la calcul
de ces puissances entires.

Puissance n-me d'une matrice


La formule D = P 1AP avec A une matrice diagonalisable s'crit aussi A = PDP 1 . On en
dduit que :
A n = PDP 1PDP 1...PDP 1 = PDn P 1 .

La matrice D (respectivement A ) reprsente l'endomorphisme (application linaire) u dans


une base f forme de vecteurs propres (respectivement dans la base canonique e). La formule
prcdente exprime simplement le fait que les matrices Dn et A n reprsentent le mme
endomorphisme u n respectivement dans la base f et dans la base e.
Le produit de deux matrices est trs facile calculer : la matrice produit est diagonale et le i-
me terme de sa diagonale est le produit des i-mes termes des diagonales des deux matrices.

Patrice Wira - 27 - 1999


On en dduit que la puissance n-me de la matrice diagonale D s'obtient simplement en
levant la puissance n chacun des termes de sa diagonale.

18. Formes quadratiques


Une forme quadratique est un polynme homogne du second degr en n variables
x1 , x2 ,..., xn :
n n
f ( x1 ,..., xn ) = aij xi x j .
i =1 j =1

On peut reprsenter la forme quadratique grce aux notations matricielles. Pour cela,
considrons A une matrice carre, A R n*n , et x un vecteur de n lments, x R n :
xT = [ x1 ... xn ] , A = aij ,
alors f ( x ) = xT Ax .

Remarque : On dit que de lexpression f ( x, y ) = x T Ay quelle est de la forme bilinaire, avec


y un vecteur de dimension n, y R n .

Supposons que A soit une matrice relle.


Toute matrice carre peut tre dcompose en une matrice A s symtrique, A s = A Ts , et en
une matrice A a anti-symtrique, A a = A Ta .
Ainsi, A = A s + A a avec :
A + AT A AT
As = et A a = .
2 2
Si la matrice A nest pas symtrique au dpart, on peut crire :
xT Ax = xT ( A s + A a )x = x T A s x + x T A a x .
Dans cette expression, les deux termes sont des scalaires, ils sont donc gaux leur
transpos, en particulier :
xT A a x = ( xT A a x )T = xT A Ta x = xT A a x
qui doit tre nul, do
x T Ax = x T A s x .
On peut donc affirmer sans perdre de gnralit que la matrice A de la forme quadratique
est symtrique.

19. Dfinitivit
On dit quune matrice A R n*n , est dfinie positive, A > 0 , si la forme quadratique qui lui
est associe est dfinie positive :
A > 0 xT Ax > 0 , x 0 .

Patrice Wira - 28 - 1999


A est dfinie semi-positive, A 0 , si xT Ax 0 pour tout vecteur x 0 .
A est dfinie ngative, A < 0 , si xT Ax < 0 pour tout x 0 .
A est dfinie semi- ngative, A 0 , si xT Ax 0 pour tout vecteur x 0 .
On parle, selon la cas, de positivit ou de ngativit.
En fait, une forme quadratique est dite non dfinie si son signe dpend du vecteur x .

Pour tester la positivit dune matrice, on peut utiliser le critre de Sylvester qui dit quune
matrice est dfinie positive si tous ses mineurs principaux sont positifs :
A > 0 ssi m i > 0 , i = 1,..., n .
Ce critre nest plus valable pour la semi-positivit :
A 0 ssi m i 0 , i = 1,..., n nest pas vrai, mais :
A 0 ssi m i 0 et m ij 0 , i = 1,..., n , j = 1,..., n .
Les mmes raisonnements sont valables pour les cas ngatifs.

Cela peut galement se vrifier en utilisant les valeurs propres i , i = 1,..., n , de la matrice
A :
A > 0 ssi i > 0 ,
A 0 ssi i 0 ,
A < 0 ssi i < 0 ,
A 0 ssi i 0 .

20. Changement de base

Dfinition d'une base


Lorsqu'on travaille avec les combinaisons linaires, il est commode d'introduire la notion de
famille de vecteurs d'un espace E qui gnralise la notion de partie. Dans une famille, les
vecteurs sont rangs dans un certain ordre et le mme vecteur peut apparatre plusieurs fois
(dans le langage des dnombrements mathmatiques, une famille est un arrangement avec
rptition, alors qu'une partie est une combinaison). Les familles les plus intressantes sont
celles ayant un nombre n fini d'lments et pour lesquelles les vecteurs sont distincts. Ces
considrations faites, la diffrence entre famille et partie ne concerne alors plus que l'ordre des
vecteurs. On note une famille de n vecteurs indics par l'ensemble I = {1,..., n} par (ai )iI ou
plus simplement, (ai ) .

Patrice Wira - 29 - 1999


Une famille de vecteurs libre est un ensemble de vecteurs linairement indpendants. A
l'inverse, une famille lie contient au moins un vecteur qui est une combinaison linaire des
autres.

On dit que la famille A est gnratrice d'un sous-espace vectoriel F de E si A est contenu
dans F et si tout vecteur de F est une combinaison linaire de vecteurs de A.

Une famille de vecteurs d'un espace vectoriel E qui est la fois libre et gnratrice de E est
appel base de E.

Exemple : la base canonique.


La famille (e1 , e 2 ,...e n ) forme des n vecteurs e1 = (1, 0,...0) , e 2 = (0,1, 0,...0) ,
ei = (0, 0,...,1, 0,...0) , e n = (0, 0,..., 0,1) de R est une base de R appele base canonique.
n n

Application : plusieurs repres dans l'espace 3D


Lobjectif que lon se fixe est de reprsenter nimporte point de l'espace 3D dans plusieurs
bases.

On se place dans un repre 3D R1 , dfini par une base orthonorme. A partir de ce premier
repre, on dfinit par rapport R1 un second repre R2 , galement dfini par une base
orthonorme.
Le passage d'un repre un autre fait intervenir deux oprations essentielles : la translation
et la rotation.
Le repre R2 est donc dfini par la position de son origine O2 dans le repre R1 (c'est la
translation, dfinie par un vecteur t R 3 ) et par l'orientation des vecteurs formant sa base
(c'est la rotation, dfinie par une matrice A R 3*3 ) par rapport ceux qui constituent la
base de R1 .

Considrons dans un premier temps qu'une simple translation de t = [ 4 2 2] comme le


T

montre la figure suivante.


S'il n'y a pas de rotation pour passer d'un repre l'autre, la matrice de rotation est la
matrice identit : A = I 3 .

Patrice Wira - 30 - 1999


y z

4
4

P
3
3 P

O2
2 2
O2

Q
1 1
Q

x y

0 0
0 1 2 3 4 5 6 0 1 2 3 4 5 6
O1 O1

Figure 5 : Les points P et Q dans le premier repre Figure 6 : Les points P et Q dans le premier repre
par rapport aux axes x et y. par rapport aux axes y et z.

Connaissant les coordonnes d'un point PR2 = [1 1 1] dans le repre R2 , on veut connatre
T

ses coordonnes PR1 dans le repre R1 :


PR1 = APR2 + t .

On trouve alors : PR1 = [5 3 3] .


T

On peut poser le problme inverse : quelles sont les coordonnes dans R2 d'un point dfini
dans R1 ?
Dans R1 dfinissons le point Q tel que QR1 = [1 1 1] . Les coordonnes de Q dans R2 sont
T

donnes par l'application inverse celle dfinie prcdemment :


QR1 = AQR2 + t ,
QR2 = A 1(QR1 t ) .

L'application numrique donne QR2 = [ 3 1 1] .


T

Considrons maintenant, que le passage de R1 R2 ne se fasse non seulement par la


t = [ 4 2 2]
T
translation de mais aussi par une rotation dfinie par la matrice
0 1 0
A = 0 0 1 (les angles d'Euler quivalents sont : [ ] = [ 0 / 2 / 2] ).
T T

1 0 0

Patrice Wira - 31 - 1999


0

4 2

y
3
z
3
2
5

1 4

3 4
0
2
0
1
2 1
3
4
y
0
5
0 1 2 3 4
x x

4 4

3 3

z z

2 2

1 1

0 0
0 1 2 3 4 0 1 2 3 4
x y

Figure 7 : Un cube dans un espace 3D, le point Q est reprsent par un cercle magenta.

Le point S, dfini dans R2 par SR2 = [1 1 1] et reprsent sur les figures prcdentes par
T

un cercle (un des sommets du cube) a pour coordonnes dans R1 SR1 selon la formule :
SR1 = ASR2 + t ,

soit aprs calcul, SR1 = [3 1 3] .


T

Le point T, dfini dans le repre R1 par TR1 = [3 8 3]


T
voit ses coordonnes TR2 dans
R2 donnes par l'application inverse :
TR2 = A 1(TR1 t ) .
Le calcul donne TR2 = [1 1 10] .
T

On voit finalement, que le passage d'un repre l'autre utilise une multiplication gauche,
que ce soit pour passer de R1 R2 , ou inversement de R2 R1 . La multiplication cause
peut donc de faon gnrale tre assimil un changement de base.

Patrice Wira - 32 - 1999


Application : les axes principaux d'une ellipse
Lobjectif que lon se fixe est de reprsenter nimporte quelle ellipse en coordonnes polaires.

Dans un premier temps, on rappelle un cas particulier, celui o les axes de lellipse sont
parallles aux axes de coordonnes. On gnralisera ensuite pour le cas des axes quelconques.

Axes de lellipse parallles aux axes de coordonnes :


L'quation d'une ellipse est donne par :
a ( x x0 ) 2 + b( y y0 ) 2 = d ,

avec { x0 , y0 } le centre de lellipse et a , b et d positifs.


On peut aussi crire :
( x x0 ) 2 ( y y0 ) 2
+ = 1,
a2 b2

avec a = d / a et b = d /b .
Les coordonnes polaires qui reprsentent cette ellipse sont alors :
x = a cos( ) + x0

y = b cos( ) + y0
avec 0 2 .

Axes de lellipse quelconques :


L'quation gnrale d'une ellipse quelconque dcrite dans un rfrentiel est :
a ( x x0 ) 2 + b( y y0 ) 2 + 2c( x x0 )( y y0 ) = d .

On peut aussi lcrire sous forme quadratique :


a c x x0
[ x x0 y y0 ] =d.
c b y y0
Soit, en notation matricielle :
xT Ax = d .

La courbe correspondante est une ellipse si la matrice A est dfinie positive, cest dire si a
et b sont positifs et si det( A ) > 0 , soit ab > c 2 .
Caractriser une ellipse revient dterminer ses axes principaux qui sont les directions
propres de la matrice A . Les vecteurs propres de A sont dfinis par :
det( A i I) = 0 ,

Patrice Wira - 33 - 1999


soit,
a+b ( a b) 2 + 4c 2
i = .
2

Soient d1 et d 2 les directions propres et v1 et v 2 les vecteurs propres A . Les vecteurs


propres vrifient la relation :
Av i = i v i .

Ces vecteurs sont dfinis une constante prs : on ne connat que leurs directions d1 et d 2 ,
soit :
d1 : y = 1 x avec 1 = ( 1 a ) / c

d 2 : y = 2 x avec 2 = ( 2 a ) / c

Soient v et w les coordonnes dun point dans les axes dfinis par les directions d1 et d 2 .
Avec ces coordonnes, lquation de lellipse scrit :
1v 2 + 2 w2 = d ,
ou
v2 w2
+ = 1,
12 22
avec 1 = d / 1 et 2 = d / 2 .
On peut donc facilement tracer lellipse avec les coordonnes {v, w} , puis passer dans les axes
{ x , y} par une matrice de changement de base.

Soit B la matrice de changement de base telle que :


x v
y = B w

On dmontre alors que :
1 1

1 + 12 1+ 2
2
B= .
2
1

1 + 1 1 + 12
2

21. Matrice racine carre

Patrice Wira - 34 - 1999


Toute matrice A , A R n*n , dfinie semi-positive, A 0 , peut tre factorise en deux
matrices racines carres tel que :
A = A A T ou A = A T A .
Les matrices racines carres gauche et droite des deux expressions prcdentes ne
sont pas forcment les mmes.
Il peut y avoir plusieurs matrices racines carres, et de toutes sortes. En fait, si M est une
matrice orthogonale, MT = M 1 , M R n*n , alors on montre que :
A = AT MT M A .
A T MT est une matrice racine carre de A .
Si A > 0 , alors toutes les matrices racines carres de A sont non singulires.

Patrice Wira - 35 - 1999


Les fonctions vectorielles (matrix calculus)

1. La diffrentiation et lintgration par rapport un scalaire


Soit x vecteur, x R n et soit A une matrice, A R m*n .
La drive du vecteur x par rapport un scalaire t vaut :
x1 t
x xT
= et = [x1 t xn t ] .
t t
xn t

La drive de la matrice A par rapport un scalaire t vaut :


A aij
= .
t t

Quelques proprits sur la drivation :


Soient A R m*n et B R m*n des matrices et soit x R n un vecteur :

A B
( A + B) = +
t t t
A B
( AB) = B+A
t t t
A n
A n 1 A n 2 A
= A +A A + + A n 1
t t t t
A 1 A 1
= A 1 A
t t
A A
= trace( A)
t t
( AA 1 ) I
= =0
t t

Remarque : drive d'un dterminant par un scalaire



La drive det( A) du dterminant d'une matrice A R n*n est la somme des n
t
dterminants obtenus en remplaant de toutes les manires possibles les lments d'une ligne
(colonne) de det( A) par leurs drives par rapport t.

Patrice Wira - 36 - 1999


Si x est un vecteur, x R n et si A est une matrice, A R m*n , leur intgration par rapport
un scalaire t donne :
x1t

x t = et x
T
t = x1t x t ,
n

xn t

At = a t .
ij

2. Dfinition d'une fonction vectorielle


Un ensemble de fonctions multivariables valeurs relles, f1 ( x ) , f 2 ( x ) , ..., f m ( x ) , x R n ,
peut tre reprsent par une unique fonction vectorielle, f : R n R m , f i : R n R :
f ( x ) = [ f1 ( x ) f m (x )]
T
f 2 (x) .

Si f (x) est une fonction vectorielle, y = f ( x ) = [ f1 ( x ) f m (x )]


T
f 2 (x ) , o x R n et
f : Rn Rm .
La drive de la fonction f relative une constante t vaut :
( yQy ) y f ( x )
= y T Qy + y T Qy = 2 y T Qy avec y= = et avec Q une matrice de
t t t
pondration.

3. Le gradient dune fonction scalaire


Soit une fonction multivariable valeurs scalaires, dfinie par :
f ( x ) = f ( x1 , x2 , , xm ) , f : R n R .
x est un vecteur de dimension n, x R n .
Le gradient de la fonction f par rapport x a pour expression :
T
f ( x ) f ( x ) f ( x ) f (x ) f (x )
= x f (x ) = = .
x xi n*1 xi x2 xn

Le vecteur gradient reprsente le vecteur des drives premires de la fonction f.

Le gradient de la fonction scalaire f ( x ) = x T Qx , avec Q une matrice de pondration,


Q R n*n , x R n , vaut :

Patrice Wira - 37 - 1999


f (x )
x f (x ) = = 2x T Q .
x

4. La Jacobienne dune fonction vectorielle


f ( x ) = [ f1 ( x ) f m (x )]
T
Soit une fonction vectorielle f 2 (x) , o x Rn et
f :R Rn m
.
La matrice des drives premires de la fonction f relatives aux composantes x j du vecteur
x scrit :
f ( x ) f i ( x )
J(x) =
= .
x x j
On appelle cette matrice la matrice Jacobienne de f . Cette matrice scrit galement :
f1 ( x ) f1 (x )
x f1 ( x ) x1
T
xn

J(x) = = .
x f m ( x ) f m ( x )
T
f m ( x )

x1 xn

5. La Hessienne dune fonction scalaire


Etant donn une fonction scalaire f (x ) , f : R n R . La matrice Hessienne de f (x )
relative au vecteur x R n est dfinie comme la matrice symtrique suivante :
2 f (x )
H( x ) = .
xi x j n*n

En notant f ( x ) la fonction vectorielle qui vaut :


T
f ( x ) f (x ) f (x ) f (x ) f (x )
f (x ) = x f (x ) = = = ,
x xi n*1 xi x2 xn

La matrice Hessienne scrit :

Patrice Wira - 38 - 1999


T
f ( x ) f ( x )
= x f ( x ) = [ x f ( x ) ] =
T
H( x ) = = 2xx f ( x )
x x x x
2 f (x) 2 f (x )
x x x1xn .
1 1
=
2
f (x) 2 f (x )
xn x1 xn xn n*n

La matrice Hessienne est la matrice des drives secondes de la fonction scalaire f


relativement au vecteur x R n . Elle reprsente la matrice Jacobienne du gradient de la
fonction scalaire f.

6. La drivation chaine
Soit la fonction scalaire compose : f ( x ) = h( g (( x )) , x R n et f : R n R .
La rgle de drivation chane permet dcrire :
f h g
= .
xi g xi

Dans le cas gnral, si h : R r R m , g : R n R r et f : R n R m , alors :


x f ( x ) = g h(g( x ))x g( x ) .

7. Expansions en srie de Taylor et de Maclaurin

Expansion en srie de Taylor d'une fonction scalaire multivariable


Soit une fonction scalaire multivariable f ( x ) , f : R n R , x R n .
Lexpansion en srie de Taylor de f ( x ) au voisinage dun point x 0 en termes de
x = x x 0 = xi = xi x0i (i = 1, ..., n) sexprime ainsi :
n
f ( x ) 1 n n 2 f (x)
f ( x ) = f ( x 0 + x ) = f ( x 0 ) + xi + xi x j + ( x 0 )
i =1 xi 2 i =1 j =1 xi x j

o ( x 0 ) sont les termes dordres suprieur impliquants les drives partielles dordre
suprieur, ngligeables lorsque x est suffisamment petit.
En notation vectorielle, on obtient :
1
f ( x ) = f ( x 0 ) + xT x f ( x 0 ) + xT 2x f (x 0 )x + (x 0 )
2

Patrice Wira - 39 - 1999


Srie de Taylor deux variables
Soit une fonction scalaire f ( x, y ) deux variables admettant des drives partielles dordre
n+1 dans un certain domaine, pour des points ( x0 , y0 ) et ( x, y ) .
Lexpansion en srie de Taylor de f ( x, y ) au voisinage dun point ( x0 , y0 ) est :
f ( x0 , y0 ) f ( x0 , y0 )
f ( x, y ) = f ( x0 , y0 ) + ( x x0 ) + ( y y0 )
x y
( x x0 )2 2 f ( x0 , y0 ) 2 f ( x0 , y0 ) ( y y0 ) 2 2 f ( x0 , y0 )
+ + ( x x0 )( y y 0 ) + + ( x0 , y0 )
2 x 2 xy 2 y 2

Avec x = x x0 et y = y y0 , on a :
f ( x0 , y0 ) f ( x0 , y0 )
f ( x0 + x, y0 + y ) = f ( x0 , y0 ) + x + y
x y
x 2 2 f ( x0 , y0 ) 2 f ( x0 , y0 ) y 2 2 f ( x0 , y0 )
+ + x y + + ( x0 , y0 )
2 x 2 xy 2 y 2

Par rapport au cas multivariable, on a pos : x = [ x y ] , x 0 = [ x0 y0 ] .


T T

Srie de Taylor une variable ( lordre n)


Lexpansion en srie de Taylor l'ordre n d'une une fonction scalaire f ( x) dpendant d'une
unique variable x est :
f ( x0 ) ( x x0 ) 2 2 f ( x0 ) ( x x0 ) n n f ( x0 )
f ( x ) = f ( x0 ) + ( x x0 ) + + ... + + ( x0 ) ,
x 2 x 2 n! x n

c'est dire, avec x = x x0 et y = y y0 :


f ( x0 ) x 2 2 f ( x0 ) x n n f ( x0 )
f ( x0 + x ) = f ( x0 ) + x + + ... + + ( x0 ) .
x 2 x 2 n ! x n

Srie de Maclaurin une variable ( lordre n)


Lexpansion en srie de Maclaurin est un cas particulier de celle de la srie de Taylor. Cette
particularit est marque par le fait que l'expansion se fait autour de x0 = 0 ce qui revient
dire que x = x :
f (0) x 2 2 f (0) x n n f (0)
f ( x ) = f (0) + x + + ... + .
x 2 x 2 n ! x n

Patrice Wira - 40 - 1999


Srie de Maclaurin deux variables
Soit une fonction scalaire f ( x, y ) deux variables. Son expansion en srie de Maclaurin
s'crit :
f (0,0) f (0,0) x 2 2 f (0,0) 2 f (0,0) y 2 2 f (0,0)
f ( x, y ) = f (0,0) + x +y + + xy + + ... .
x y 2 x 2 xy 2 y 2

Expansion en srie de Maclaurin d'une fonction scalaire multivariable


Si f ( x ) est une fonction scalaire multivariable, f : R n R , x R n , son expansion en srie
de Maclaurin au voisinage de x 0 et en termes de x = x x 0 = xi = xi x0i (i = 1, ..., n) est
donn par :
n
f (0) 1 n n 2 f (0)
f ( x ) = f (0) + xi + xi x j + ... .
i =1 xi 2 i =1 j =1 xi x j

La notation vectorielle est plus adapte :


1
f ( x ) = f (0) + xT x f (0) + xT x2 f (0)x + ... .
2

Patrice Wira - 41 - 1999


Bibliographie

Ayres, F., Jr., 1991. Matrices : cours et problmes, McGraw Hill, New York.

Cairoli, R., 1996. Algbre linaire, Presses Polytechniques et Universitaires Romandes,


Lausanne.

Christol, G., Pilibossian, P., and Yammine, S., 1996. Algbre, cours et exercices corrigs,
Ellipses-Edition Marketing, Paris.

Kohonen, T., 1984. Self-Organization and Associative Memory, Springer-Verlag, Berlin.

Rotella, F., and Borne, P., 1995. Thorie et pratique du calcul matriciel, Editions Technip,
Paris.

Stoer, J., and Bulirsch, R., 1993. Introduction to Numerical Analysis, Springer-Verlag, New
York.

Strang G., 1993. Introduction to Linear Algebra, .Welleley Cambridge Press, Wellesley.

Annexe

Alphabet Grec
Alpha Nu
Bta Xi
Gamma Omicron
Delta Pi
Epsilon Rh
Zta Sigma
ta Tau
Thta Upsilon
Iota Phi ,
Kappa Khi
Lambda Psi
Mu Omga

Patrice Wira - 42 - 1999

View publication stats