Vous êtes sur la page 1sur 47

Un rappel

sur les matrices

Patrice Wira

Université de Haute-Alsace
Faculté des Sciences et Techniques

2000 - 2001
Sommaire

Calculs matriciels (matrix algebra) ........................................................................................ 1


1. Représentation matricielle et notations................................................................................................. 1
2. L’addition ................................................................................................................................................ 1
L’addition matricielle...................................................................................................................................... 1
Propriétés de l’addition ................................................................................................................................... 2
Exemples : l’addition et la soustraction matricielle ........................................................................................ 2
Exemples : l’addition et la combinaison linéaire de deux vecteurs................................................................. 3
3. Le produit................................................................................................................................................ 3
La multiplication d’une matrice avec un scalaire............................................................................................ 3
Propriétés de la multiplication entre une matrice et un scalaire ...................................................................... 4
La multiplication matricielle ........................................................................................................................... 4
Propriétés élémentaires de la multiplication matricielle.................................................................................. 4
Quelques exemples.......................................................................................................................................... 5
Un produit matriciel particulier : le produit de Hadamard .............................................................................. 5
4. Les produits vectoriels............................................................................................................................ 5
Le produit interne............................................................................................................................................ 6
Le produit vectoriel ......................................................................................................................................... 7
Le produit mixte.............................................................................................................................................. 7
Le produit externe ........................................................................................................................................... 7
Propriétés des produits scalaire et vectoriel .................................................................................................... 8
Interprétation géométrique .............................................................................................................................. 8
Exemples :..................................................................................................................................................... 10
5. L’opérateur de transposition ............................................................................................................... 10
Propriétés élémentaires de la transposition ................................................................................................... 10
6. Matrices particulières........................................................................................................................... 10
La matrice nulle ............................................................................................................................................ 10
Matrice diagonale.......................................................................................................................................... 11
La matrice identité......................................................................................................................................... 11
Matrice triangulaire....................................................................................................................................... 11
Matrices symétrique et antisymétrique.......................................................................................................... 11
Matrice idempotente...................................................................................................................................... 11
Propriétés de la matrice nulle ........................................................................................................................ 11
Propriété de la matrice identité...................................................................................................................... 12
7. Matrices partitionnées.......................................................................................................................... 12
8. Le déterminant d’une matrice ............................................................................................................. 13
Quelques propriétés du déterminant d’une matrice :..................................................................................... 13
Quelques théorèmes ...................................................................................................................................... 13
9. Les mineurs, les cofacteurs et la matrice adjointe ............................................................................. 14
Les mineurs ................................................................................................................................................... 14
Les mineurs directeurs .................................................................................................................................. 14
Les cofacteurs ............................................................................................................................................... 14
La matrices adjointe ...................................................................................................................................... 15
Propriétés ...................................................................................................................................................... 15
Exemples....................................................................................................................................................... 15
Calcul du déterminant d’une matrice avec les cofacteurs ............................................................................. 15
Calcul de la solution d’un système d’équations linéaires - Règle de Cramer................................................ 16
10. Matrice inverse et pseudo-inverse ....................................................................................................... 17
1er cas, m = n : ............................................................................................................................................ 18
Propriétés de la matrice inverse : .................................................................................................................. 18
Calcul de la matrice inverse : ........................................................................................................................ 18
Calcul de l'inverse d'une matrice partitionnée............................................................................................... 19
2ème cas, m < n :.......................................................................................................................................... 19
3ème cas, m > n :.......................................................................................................................................... 19
Propriétés de la pseudo-inverse :................................................................................................................... 20
Détermination récursive de la pseudo-inverse (théorème de Gréville) : ....................................................... 20
Le Lemme d’inversion matricielle (The matrix inversion Lemma) .................................................... 20
Le noyau d'une matrice ................................................................................................................................. 21
Résolution de l’équation AXB = C ........................................................................................................... 21
11. Indépendance linéaire de vecteurs, la singularité .............................................................................. 22
12. Le rang d’une matrice .......................................................................................................................... 22
Propriété :...................................................................................................................................................... 22
13. La trace d’une matrice ......................................................................................................................... 23
Propriété :...................................................................................................................................................... 23
14. La norme ............................................................................................................................................... 23
La norme vectorielle ..................................................................................................................................... 23
La norme matricielle ..................................................................................................................................... 24
15. L’orthogonalité ..................................................................................................................................... 25
Propriétés ...................................................................................................................................................... 25
Quelques théorèmes ...................................................................................................................................... 25
16. Valeurs et vecteurs propres ................................................................................................................. 25
Propriétés ...................................................................................................................................................... 26
17. Diagonalisation d’une matrice ............................................................................................................. 26
Intérêt de la diagonalisation .......................................................................................................................... 27
Puissance n-ème d'une matrice...................................................................................................................... 27
18. Formes quadratiques............................................................................................................................ 28
19. Définitivité ............................................................................................................................................. 28
20. Changement de base ............................................................................................................................. 29
Définition d'une base..................................................................................................................................... 29
Application : plusieurs repères dans l'espace 3D .......................................................................................... 30
Application : les axes principaux d'une ellipse ............................................................................................. 33
21. Matrice racine carrée ........................................................................................................................... 34
Les fonctions vectorielles (matrix calculus) ......................................................................... 36
1. La différentiation et l’intégration par rapport à un scalaire ............................................................ 36
Quelques propriétés sur la dérivation :.......................................................................................................... 36
2. Définition d'une fonction vectorielle ................................................................................................... 37
3. Le gradient d’une fonction scalaire..................................................................................................... 37
4. La Jacobienne d’une fonction vectorielle............................................................................................ 38
5. La Hessienne d’une fonction scalaire .................................................................................................. 38
6. La dérivation chainée ........................................................................................................................... 39
7. Expansions en série de Taylor et de Maclaurin.................................................................................. 39
Expansion en série de Taylor d'une fonction scalaire multivariable ............................................................. 39
Série de Taylor à deux variables ................................................................................................................... 40
Série de Taylor à une variable (à l’ordre n)................................................................................................... 40
Série de Maclaurin à une variable (à l’ordre n)............................................................................................. 40
Série de Maclaurin à deux variables.............................................................................................................. 41
Expansion en série de Maclaurin d'une fonction scalaire multivariable........................................................ 41
Bibliographie........................................................................................................................... 42
Annexe ..................................................................................................................................... 42
Calculs matriciels (matrix algebra)

1. Représentation matricielle et notations


Une matrice est un tableau rectangulaire d’éléments, généralement des nombres ou des
fonctions. Ces grandeurs sont généralement des réels ou des complexes. Dans la suite, nous ne
considérerons que des grandeurs réelles. Une matrice A de dimension m*n est notée
A ∈ R m*n . Cette matrice est une matrice de m lignes et de n colonnes :
 a11
a1n 
A =  aij  =  . aij
 
 am1
amn 
Une matrice V qui ne comporte qu’une seule colonne, V ∈ R m*1 , est appelé un vecteur
colonne :
 v1 
V =  .
 
 v2 
Une matrice V qui ne comporte qu’une seule ligne, V ∈ R1*n , est appelé un vecteur ligne :
V = [v1 v2 ] .
Par convention, tout vecteur est désigné comme une matrice colonne.
Si m = n, alors la matrice est carrée.

2. L’addition

L’addition matricielle
L’addition matricielle n’est définie qu’entre deux matrices de même dimensions. La matrice
résultante est de la même dimension que les matrices additionnées et chacun de ses éléments
est la somme des éléments des deux matrices correspondant à la même ligne et à la même
colonne.
Soient A ∈ R m*n et B ∈ R m*n . L’addition de ces deux matrices est donnée par :
C =  cij  =  aij + bij  .

On la note : C = A + B , C ∈ R m*n .
Il en va de même pour la soustraction, au signe près. La soustraction des matrices A et B
est donnée par :
C =  cij  =  aij − bij  .

Patrice Wira -1- 1999


On la note : C = A − B , C ∈ R m*n .

Propriétés de l’addition
En considérant trois matrices, A ∈ R m*n , B ∈ R m*n et C ∈ R m*n , on a les trois propriétés
suivantes :

A+B=B+A Commutativité (commutative law).


C( A + B) = CA + CB Distributivité (distributive law).
A + ( B + C) = ( A + B ) + C Associativité (associative law).

Exemples : l’addition et la soustraction matricielle


1 4 0  5 2 6
Si A ∈ R 2*3 et B ∈ R 2*3 tel que A =   , B=  , alors :
 2 7 3 0 1 1

 1 + 5 4 + 2 0 + 6  6 6 6
A+B=  =  et
2 + 0 7 + 1 3 + 1  2 8 4
 −4 2 −6
A−B=  .
2 6 2

Patrice Wira -2- 1999


Exemples : l’addition et la combinaison linéaire de deux vecteurs

L'addition de deux vecteurs (de dimensions Une combinaison linéaire de deux vecteurs
2, v, w ∈ R ) 2
permet de définir un v ∈ R 2 et w ∈ R 2 est l'addition de deux
parallélogramme. Le vecteur résultant u vecteurs à qui on fait subir un changement
est une des diagonale du parallélogramme. de longueur par des coefficients scalaires.
4 4
Prenons par exemple v=  et Reprenons les vecteurs exemple v =   et
2 2
 −1  −1
w =   , on obtient alors : w=  :
3 3
 4   −1 3  4   −1
u= v+w =  +  =   u = −2 v + w = −2   +  
 2   3  5 2  3 
 −8   −1  −9  9 
=  +  =   = − 
 −4   3   −1 1 

-
-
w -
- -
- | | | | | | | | | | | |- |
- u u -
- -
w -2 v
- v -
| |- | | | | | |
Figure 1: L'addition de deux vecteurs. Figure 2 : La soustraction de deux vecteurs.

3. Le produit

La multiplication d’une matrice avec un scalaire


La multiplication entre une matrice et un nombre scalaire donne une matrice dont chaque
élément de la matrice est multiplié par le scalaire.
Etant donné A ∈ R m*n une matrice, et b un scalaire, alors les éléments de la matrice C
résultante sont donnés par :
cij = baik .

La matrice C = bA est de même dimension que A , C ∈ R m*n .

Patrice Wira -3- 1999


Propriétés de la multiplication entre une matrice et un scalaire
Si c est un scalaire, alors :

c A = Ac Commutativité, A ∈ R m*n .
c ( A + B ) = cA + cB Distributivité, A ∈ R m*n et B ∈ R m*n .
c( AB) = (cA )B = A( cB) = ( AB)c Associativité, où AB est la multiplication
matricielle entre les matrices A ∈ R m*n et
B ∈ R n* p .

Si c et b sont des scalaires, alors :


(b + c ) A = bA + cA Distributivité, A ∈ R m*n .
(bc ) A = b(cA ) Associativité, A ∈ R m*n .

La multiplication matricielle
La multiplication entre deux matrices n’est définie que lorsque leurs dimensions son
compatibles : le nombre de colonnes de la matrice à gauche de l’opérateur doit correspondre
au nombre de lignes de la matrice à droite de l’opérateur.
Si A ∈ R m*n , et si B ∈ R n* p , la multiplication entre les matrices A et B donne une
matrice C de dimensions m*p telle que tous ses éléments :
n
cij = ∑ aik bkj .
k =1

On note cette opération : C = A * B = AB , . .

Propriétés élémentaires de la multiplication matricielle


AB ≠ BA La commutativité n’est pas toujours vraie
(the commutative law is usually broken).

C( A + B) = CA + CB Distributivité à gauche
(distributive law from the left)
avec A , B ∈ R m*n et C ∈ R p*m .

Patrice Wira -4- 1999


( A + B)C = AC + BC Distributivité à droite
(distributive law from the right)
avec A , B ∈ R m*n et C ∈ R n* p .

A( BC) = ( AB)C Associativité (associative law)


avec A ∈ R m*n , B ∈ R n* p et C ∈ R p*q .

Quelques exemples

 5 −3  8 −2 6 
• Si A ∈ R 2*2 et B ∈ R 2*3 tel que A =   , B=  , alors
4 2  7 0 9

 5 −3  8 −2 6 5(8) + ( −3)(7) 5( −2) + ( −3)0 5(6) + ( −3)(9)  19 −10 3 


AB =   = =
 4 2   7 0 9   4(8) + 2(7) 4( −2) + 2(0) 4(6) + 2(9)   46 −8 42

• Si on dispose d’un vecteur ligne x ∈ R 4 et d’un vecteur colonne y ∈ R 4 tel que


x = [1 3 5 −1] et y = [ −2 4 2 6] , alors
T

 −2 
4
xy = [1 3 5 −1]   = [1( −2) + 3(4) + 5(2) + ( −1)(6) ] = 14 .
2
 
6

Un produit matriciel particulier : le produit de Hadamard


La matrice résultante du produit de Hadamard entre deux matrices de même taille contient
le résultat d’une multiplication élément par élément.
On note le produit entre les matrices A ∈ R m*n et B ∈ R m*n :
C = A ⊗ B , C ∈ R m*n ,
C =  cij  =  aij bij  .

4. Les produits vectoriels


Si l’addition de vecteur n’est pas très différente de l’addition matricielle, il n’en va pas de
même en ce qui concerne la multiplication. En effet, multiplier deux vecteurs n’a pas la même

Patrice Wira -5- 1999


signification que multiplier deux matrices, c’est pourquoi on distingue les produits vectoriels
des produits matriciels.
La multiplication de deux vecteurs peut être définie de trois façon différentes, selon que le
résultat est un scalaire, un vecteur ou une matrice. On les appelle respectivement produit
interne (scalaire), vectoriel et produit externe.
Les produits interne et externe sont des cas particulier de la multiplication matricielle définie
en toute généralité précédemment.

Le produit interne
Soient deux vecteurs de même dimension, x ∈ R n et y ∈ R n . On appelle produit interne (en
Anglais on parlera de « inner product » ou de « vector dot product ») la somme des
multiplications éléments par éléments de chaque vecteur :
n
x T , y = xT y = y T x = ∑ yi xi .
i =1

Cette opération retourne un scalaire. Le produit interne est aussi appelé produit scalaire, il
n’est défini que si les deux vecteurs sont de même taille.
Le produit interne est un moyen de mesurer comment deux vecteurs sont parallèles. Deux
vecteurs sont orthogonaux si leur produit scalaire est nul.

Remarque : angle en deux vecteurs.


Si deux vecteurs qui ne sont pas parallèles forment un angle entre eux.
Si x et y sont deux vecteurs Euclidiens, alors ils forment un angle θ définit par :
x, y
cosθ = .
x y

Les deux vecteurs x et y sont dit orthogonaux quand leur produit interne est nul ( θ =90°),
on le note x ⊥ y .

Remarque : parfois le produit entre deux matrices en également appelé produit scalaire, mais
l’ordre de x et y est important : xT y ≠ y T x qui donne un nombre, et qu’il faut différencier
de yxT (produit externe) qui est une matrice.

Patrice Wira -6- 1999


Le produit vectoriel
Le produit vectoriel de deux vecteur se traduit en Anglais par « vector product » ou « cross
product ». Le produit vectoriel de deux vecteurs de trois composantes est défini par :
 x1   y1   x2 y3 − x3 y2 
x × y =  x2  ×  y2  =  x3 y1 − x1 y3  .
 x3   y3   x1 y2 − x2 y1 

Formellement, ce produit peut être considéré comme un déterminant, avec les vecteurs
(i, j, k ) constituants la base dans la première colonne :
i x1 y1
x2 y2 x1 y1 x1 y1
x×y = j x2 y2 = i− j+ k,
x3 y3 x3 y3 x2 y2
k x3 y3
x × y = ( x2 y3 − x3 y2 )i + ( x3 y1 − x1 y3 ) j + ( x1 y2 − x2 y1 )k .

Remarque : ce n’est pas un vrai déterminant dans le sens où il ne retourne pas une grandeur
scalaire.

Le produit mixte
Soit trois vecteurs x , y et z ∈ R n . Le nombre réel (x × y ).z , c'est à dire le produit scalaire
du vecteur x × y par le vecteur z , s'appelle le produit mixte des trois vecteurs x , y , z
(dans cet ordre). Le résultat est un scalaire. On parle en Anglais de « scalar triple product ».

Le produit externe
Considérons deux vecteurs de dimensions différentes, x ∈ R m et y ∈ R n . On appelle produit
externe (traduit en Anglais par « outer product » ou « dyadic product ») :
 x1 y1 x1 yn 
x, y = xy = 
T
xi y j  , avec i = 1,..., m , j = 1,..., n .
 
 xm y1 xm yn 
z =  zij  = xy T =  xi y j  , avec i = 1,..., m , j = 1,..., n .

Cette opération retourne une matrice de m lignes et n colonnes. Ce produit peut être défini
comme un produit matricielle.
Le produit externe joue un rôle important lorsqu’il s’agit de déterminer comment sont
corrélés les éléments d’un vecteur avec ceux d’un autre.

Patrice Wira -7- 1999


Remarque : si x = [1 2 3 … 10]
T
contient toutes les valeurs possibles entre 1 et 10,
alors z = xx contient les tables de multiplication jusqu’à 10 :
T

1 2 3 4 5 6 7 8 9 10 
2 4 6 8 10 12 14 16 18 20 

3 6 9 12 15 18 21 24 27 30 
 
4 8 12 16 20 24 28 32 36 40 
5 10 15 20 25 30 35 40 45 50 
xxT =  .
6 12 18 24 30 36 42 48 54 60 
7 14 21 28 35 42 49 56 63 70 
 
8 16 24 32 40 48 56 64 72 80 
9 18 27 36 45 54 63 72 81 90 
 
10 20 30 40 50 60 70 80 90 100 

Propriétés des produits scalaire et vectoriel


Soient x , y et z trois vecteurs ∈ R n et soit a un scalaire.
Le produit scalaire est distributif : x.( y + z ) = x.y + x.z .
est commutatif : x.y = y.x .
est associatif : ( ax ).y = a ( x.y ) .

Le produit vectoriel est distributif : xx ( y + z) = xxy + xxz .


N’est PAS commutatif : xxy = − yxx .
est associatif : ( ax ) xy = a ( xxy ) .

Interprétation géométrique

Patrice Wira -8- 1999


Z Z
B
A aire = AxB
BxA B

θ AxB
A.B A

X X
Y Y

Figure 3: Les produits scalaire (à gauche) et vectoriel (à droite) de deux vecteurs.

Le produit scalaire :
Le scalaire qui est retourné est proportionnel à la projection du premier vecteur sur le second.
Cet opération est fréquemment utilisée pour mesurer l’orthogonalité de deux vecteurs mais
aussi pour décrire la composante d’un vecteur dans une direction particulière.

Le produit vectoriel :
Le produit vectoriel, noté A × B est un vecteur orthogonal à A et à B . Il est nul si A et B
sont parallèles. Il est utilisé pour déterminer la normale de deux droites. C’est ainsi qu’on
défini le vecteur normal d’une surface en un point quelconque.

Le produit mixte :
La valeur absolue du produit mixte est le produit de la longueur de la projection du vecteur
z sur la perpendiculaire au plan de même direction que les vecteurs x et y sur la surface du
parallélogramme construit sur les vecteurs x et y . Autrement dit, c'est le volume du
parallélépipède construit sur les trois vecteurs x , y et z . On dit aussi que le produit mixte
représente le volume algébrique de ce parallélépipède.

x × y z
y

Figure 4: Le produit mixte de trois vecteurs.

Patrice Wira -9- 1999


Exemples :
Considérons un espace de dimensions trois défini par les vecteurs i , j et k .
Les vecteurs x et y s’écrivent par rapport à cette base :
x = xi i + x j j + xk k et y = yi i + y j j + yk k .
Le produit scalaire de x et y vaut alors :
x.y = x y cos( x, y ) = xi yi + x j y j + xk yk .

Le produit vectoriel vaut quand à lui


xxy = ( x j yk − xk y j )i + ( xk yi − xi yk ) j + ( xi y j − x j yi )k ,
et xxy = x y sin( x, y ) .

On rappelle que x = ( xi2 + x 2j + xk2 )1 2 .

5. L’opérateur de transposition
La transposée d’une matrice A est la matrice A T (notée parfois aussi A ' ) définie par :
A ∈ R m*n , A T ∈ R n*m ,
A =  aij  m*n , AT =  a ji  n*m .

Propriétés élémentaires de la transposition


( A T )T = A où A ∈ R m*n .
( A + B )T = A T + BT avec A , B ∈ R m*n .
( AB)T = BT A T où A ∈ R m*n , B ∈ R n* p et
 n

AB =  ∑ aik bkj  .
 k =1  m* p

6. Matrices particulières

La matrice nulle
La matrice dont tous les termes sont nuls est appelée matrice nulle. On la note A = 0 :
aij = 0 , ∀i , ∀j .

Patrice Wira - 10 - 1999


Matrice diagonale
Une matrice diagonale A ∈ R n*n est une matrice carrée dont tous les éléments non diagonaux
sont nuls, c'est à dire que aij = 0 , ∀i ≠ j . Elle est de la forme :
 a11 0 0
0 
A =  aij  =  aij .
 0
 
 0 0 ann 

La matrice identité
Une matrice identité est une matrice diagonale A ∈ R n*n (donc carrée) qui voit tous ses
éléments nuls sauf ceux de sa diagonale principale qui sont unitaires. On la note I n ou I :
 aij = 0 ∀i ≠ j
A=I⇔  , .
 aii = 1 i = 1,..., n

Matrice triangulaire
Une matrice triangulaire supérieure (respectivement inférieure) est une matrice carrée
A ∈ R n*n dont les éléments qui se trouvent au-dessous (respectivement au-dessus) de la
diagonale principale sont nuls, c'est à dire telle que aij = 0 , ∀i > j ( ∀i < j ). Elle est donc de
la forme :
 a11 a12 a1n   a11 0 0
0 a22   
A =  aij  = 
   (respectivement A =  a  =  a21 a22  ).
   ij   0
   
 0 0 ann   an1 ann 

Matrices symétrique et antisymétrique


Soit A ∈ R n*n une matrice carrée.
- Si A T = A , alors A est dite matrice symétrique.
- Si A T = − A , alors A est dite matrice antisymétrique.

Matrice idempotente
Considérons une matrice carrée A ∈ R n*n . Si AT A = A , alors A est dite idempotente.

Propriétés de la matrice nulle


Soit A une matrice, A ∈ R m*n :

Patrice Wira - 11 - 1999


A0 = 0A = 0 C’est l’opérateur nul de la multiplication
A+0=0+A = A C’est l’opérateur neutre de l’addition

Propriété de la matrice identité


Soit A une matrice, A ∈ R m*n :
AI = IA = I C’est l’opérateur neutre de la multiplication

7. Matrices partitionnées
La composante de base d’une matrice A de dimensions quelconques est aij . Il est parfois
intéressant de considérer une matrice en tant que tableau de matrices élémentaires.
Soit :
A A12  m
A =  aij  =  11
 A 21 A 22  n ,
p q
avec A11 ∈ R m* p , A12 ∈ R m*q , A 21 ∈ R n* p , A 22 ∈ R n*q .

La matrice A est une matrice de m+n lignes et de p+q colonnes, A ∈ R ( m + n )*( p + q ) .

 B1 
Considérons une seconde matrice B partitionnée ainsi : B =   , où B1 ∈ R p*1 , B 2 ∈ R q*1 .
B2 
On peut alors écrire :
A A12   B1   A11B1 + A12 B 2 
AB =  11   =  .
 A 21 A 22   B 2   A 21B1 + A 22B 2 

Cette relation est souvent utilisée avec les notations suivantes :


 A B   E  AE + BF 
 C D   F  = CE + DF  .
    

Toutes les sous-matrices doivent comporter des dimensions compatibles avec les règles du

produit matriciel.

La transposée d'une matrice partionnée est donnée par :


T
A B  AT CT 
 C D =  T  .
  B DT 

Patrice Wira - 12 - 1999


8. Le déterminant d’une matrice
On appelle déterminant d’une matrice A carrée, A ∈ R n*n , le nombre noté det( A ) ou | A |
et égal à :
n
det(A ) = ∑ ( −1)i +1 ai1det(A i ) où A i est la matrice obtenue en rayant la
i =1

1ère colonne et la i-ième ligne.

 a11
a12 
Si n = 2, det(A ) =  = a11a22 − a12 a21 .
 a21 a22 
Si n = 3, det(A ) = a11a22a33 + a13a32 a21 + a12 a23a31 − a11a23a32 − a22a13a31 − a33a12 a21 .
Lorsque le déterminant d’une matrice est nul, on dit que la matrice est singulière.

Remarques :
n
det(A ) = ∑ akj ckj pour tous les lignes k de A .
j =1
n
det(A ) = ∑ ail cil pour tous les colonnes l de A .
i =1

Quelques propriétés du déterminant d’une matrice :


det( AB) = det( A )det(B) avec A ∈ R n*n .
1
det( A −1 ) = avec A ∈ R n*n .
det( A )
 D E  
det ( A ) = det    = det ( G ) det ( D − EG F ) = det ( D ) det ( G − FD E )
−1 −1

 F G 
D E 
où A =   ∈ R n*n , D ∈ R m*m et les dimensions des matrices E , F et G sont
F G
en accord avec celles de A et D ; D−1 doit exister

Quelques théorèmes
1. Si tous les éléments d'une ligne (colonne) d'une matrice A ∈ R n*n sont nuls alors
det( A) = 0 .
2. Si tous les éléments d'une ligne (colonne) du déterminant d'une matrice A ∈ R n*n sont
multiplié par un scalaire k, alors le déterminant est multiplié par k.
3. Si B est obtenue à partir de A ∈ R n*n en échangeant deux de ces lignes (colonnes), alors
det(B) = −det( A) .
4. Si B est obtenue à partir de A ∈ R n*n en faisant passer la i-ème ligne (colonne) par
dessus p lignes (colonnes), alors det(B) = (−1) p det( A ) .

Patrice Wira - 13 - 1999


5. Si deux lignes (colonnes) de A ∈ R n*n sont identiques, alors det( A ) = 0 .
6. Si, aux éléments d’une ligne (colonne) on ajoute k fois les éléments correspondants d’une
autre ligne (colonne), la valeur du déterminant reste inchangée.

Pour tous ces théorèmes, on trouvera la démonstration dans (Ayres, 1991).

Le calcul du déterminant d'une matrice A ∈ R 3*3 peut être calculé par la règle dite de Sarrus
(Christol et al. 1996, p. 108).

9. Les mineurs, les cofacteurs et la matrice adjointe

Les mineurs
Les mineurs mij des éléments aij d’une matrice A carrée, A ∈ R n*n , sont les déterminants de
la partie restante de A lorsqu’on ne tient pas compte de la ligne i et de la colonne j.

Les mineurs directeurs


Les mineurs directeurs d’une matrice A carrée, A ∈ R n*n , appelés aussi mineurs principaux
(en Anglais « leading minors ») sont définis comme suit :
m1 = a11
 a a 
m2 = det   11 12  
  a21 a22  
 a 
m3 = det   11 
 a33  
...
mn = det ( A )

Les cofacteurs
Les cofacteurs cij des éléments aij d’une matrice A carrée, A ∈ R n*n , sont donnés par :
cij =( −1)i + j mij .

Le cofacteur est souvent aussi noté ∆ ij .

Patrice Wira - 14 - 1999


La matrices adjointe
La matrice des cofacteurs cij des éléments aij d’une matrice A carrée, A ∈ R n*n , lorsqu’elle

est transposée, est appelé la matrice adjointe de A . On note généralement cette matrice A
ou encore adj( A ) .
T
 c11 c1n 
∼ T
A = adj( A ) =  cij  =  cij  ,
 
 cn1 cnn 
adj(A ) = CT , avec C =  cij 

Propriétés
∼ ∼
A A = A A = A I où A est le déterminant de la matrice A .
adj(AB) = adj(A).adj(B) .

Exemples
 a11 a12 a13 
En ce qui concerne la matrice A ∈ R , A =  a21 3*3
a22 a23  , nous avons le mineur
 
 a31 a32 a33 
a a  a a12 
m23 =  11 12  et le cofacteur cij = ( −1) 2+3 m23 = −  11 .
 a31 a32   a31 a32 

Calcul du déterminant d’une matrice avec les cofacteurs


La valeur d’un déterminant d’ordre n d’une matrice carrée A ∈ R n*n est la somme des n
produits obtenus en multipliant chaque élément d’une ligne (colonne) donnée de la matrice
par son cofacteur.

On peut donc, par exemple, calculer le déterminant d’ordre 3 de la matrice A ∈ R 3*3 ,


 a11 a12 a13 
A =  a21 a22 a23  par un développement selon la seconde colonne :
 
 a31 a32 a33 
det(A ) = a12 c12 + a22 c22 + a32 c32
a a   a11 a13   a11 a13  .
= −a12  21 23  + a22 a  − a32 a 
 a31 a33   31 a33   21 a23 

Patrice Wira - 15 - 1999


En choisissant judicieusement la ligne (ou la colonne) par laquelle en effectue le
développement, on peut très largement simplifier les calculs. On cherchera notamment à
effectuer les développement selon les lignes ou les colonnes qui comportent le plus de valeurs
nulles.
 3 5 8
1 2
Ainsi, si A =  1 0 2  , alors det(A ) = −5  = −5{1(3) − 2(4)} = 25 .
   4 3
 4 0 3

Calcul de la solution d’un système d’équations linéaires - Règle de Cramer


On peut déterminer la solution d’équations linéaires par les déterminants. On appelle cette
méthode la règle de Cramer.
Soit le système de trois équations linéaires à trois inconnues x1 , x2 et x3 :
 a11 a12 a13   x1   b1 
a a22 a23   x2  =  b2  .
 21    
 a31 a32 a33   x3   b3 

Soit A le déterminant de la matrice A ∈ R 3*3 .


La valeur numérique des coefficients de A est multipliée par x1 si chaque élément de la
première colonne est multipliée par x1 (théorème 2) :
 x1a11 a12 a13 
x1 A =  x1a21 a22 a23 
 
 x1a31 a32 a33 

En ajoutant à chaque élément de la première colonne de ce dernier déterminant, x2 fois


l’élément correspondant d la seconde colonne et x3 fois l’élément de la troisième colonne
(théorème 6), on obtient :

 x1a11 + x2 a12 + x3a13 a12 a13   b1 a12 a13 


x1 A =  x1a21 + x2a22 + x3a23 a22 a23  = b2 a22 a23  ,
   
 x1a31 + x2a32 + x3a33 a32 a33   b3 a32 a33 
c’est à dire
 b1 a12 a13 
b a22 a23 
 2 
 b3 a32 a33 
x1 = , à condition que A ≠ 0 .
A

Patrice Wira - 16 - 1999


Il en va de même pour x2 et x3 :

 a11 b1a12 a13 


a b2 a23 
 21 
 a31 b3 a33 
x2 = ,
A
 a11 a12 b1 
a a b2 
 21 22 
 a31 a32 b3 
x3 = .
A

Cette règle peut être appliquée à n’importe quel système de n équations linéaires à n
inconnues, pourvu que le déterminant des coefficients aij soit différent de zéro.

10. Matrice inverse et pseudo-inverse


Deux matrices A et B sont inverses si leur produit est égal à la matrice identité : AB = I ,
alors B = A −1 .
Les matrices inverse, et plus généralement les pseudo-inverses, trouvent leurs applications à
la résolution des systèmes d’équations linéaires quelles que soient leurs dimensions :
y = Ax ,
A ∈ R m*n , y ∈ R m est le vecteur cherché, x ∈ R n est le vecteur des connaissances.
L’inverse généralisée d’un tel système est noté A + .
L’inverse généralisée A + satisfait les conditions suivantes :
AA + A = A
A + AA + = A +
( AA + )T = AA + Condition de symétrie
+ +
(A A) = A A
T

La solution d’un système linéaire à partir de la pseudo-inverse A + s’écrit alors : x = A + y .


La résolution d’un tel système met en évidence trois cas. Selon les dimensions m et n , on
définira les matrices inverse, pseudo-inverse à gauche et pseudo-inverse à droite.
La matrice inverse est la solution d'un problème qui possède autant d'inconnues (variables à
déterminées) que de contraintes. Cela ne signifie pas pour autant qu'il existe une solution.

Patrice Wira - 17 - 1999


La pseudo-inverse à gauche est une solution d’un problème sur-déterminé, qui contient des
informations redondantes, elle minimise l’erreur quadratique moyenne, « mean square error »
en Anglais.
La pseudo-inverse à droite est une solution d’un problème sous-déterminé, qui ne contient pas
suffisamment d’information pour donner une solution unique, mais donne une solution
particulière, celle qui minimise la norme quadratique.
En fait, ces deux pseudo-inverses qu'on appelle généralement matrice inverse généralisée de
Moore-Penrose, sont données par :
A + = limδ →0 ( A T A + δ 2 I) −1 A T = limδ →0 A T ( AA T + δ 2I) −1 .

Si les colonnes de A sont linéairement indépendantes, on peut prendre δ = 0 .

1er cas, m = n :
C’est la cas d’une matrice carrée. Si A est une matrice non singulière (c’est à dire
det( A ) ≠ 0 ), alors A + = A −1 est la matrice inverse de A . La matrice A −1 vérifie la
propriété A −1A = AA −1 = I n .

Propriétés de la matrice inverse :


Si A et B sont deux matrices non singulières, A ∈ R n*n et B ∈ R n*n , alors :
( A −1 ) −1 = A
( A −1 )T = ( A T ) −1
( AB) −1 = B −1A −1 (par extension ( ABC) −1 = C−1B −1A −1 si la
matrice C est inversible.
1
det( A −1 ) =
det( A )
A( I n + A) = ( I n + A) −1 A
−1
si ( I n + A) −1 existe.
A( I n + A) −1 + ( I n + A) −1 = I n si ( I n + A) −1 existe.
A( I n + BA) −1 = ( I m + AB) −1 A si A ∈ R m*n , B ∈ R n*m et si ( I n + BA) −1
et ( I m + AB) −1 existent.
( I m + AB) −1 + A( I n + BA) −1 B = I m si A ∈ R m*n , B ∈ R n*m et si ( I n + BA) −1
et ( I m + AB) −1 existent.

Calcul de la matrice inverse :


La matrice inverse A −1 d’une matrice A carrée, A ∈ R n*n , est donnée par la relation :
adj( A )
A −1 = .
det( A )

Patrice Wira - 18 - 1999


Pour qu’une matrice soit inversible, il faut que sont déterminant soit différent de 0. On dit
alors que la matrice est régulière ou non singulière.

Exemple lorsque n = 2 :
 a11 a12   a11 a21 
Si A =   , on détermine A T =  puis on remplace chaque élément de A T
 a21 a22   a12 a22 
 a22 −a12 
par son cofacteur pour déterminer adj(A ) =  .

 21a a11 

On calcule det(A ) = a11a22 − a12 a21 , puis on détermine la matrice inverse A −1 en divisant
chaque élément de adj(A ) par det(A ) .

On peut également calculer l'inverse d'une matrice A par la méthode du pivot de Gauss
(Christol et al. 1996, p. 19) dans le cas particulier où la matrice est carrée et est inversible.
Le système, caractérisé par la matrice A , est alors dit système de Cramer ou système
régulier dans ce cas.

Calcul de l'inverse d'une matrice partitionnée


D E 
Soit A ∈ R n*n une matrice partitionnée en quatre sous-matrices telle que : A =   , où
F G
D ∈ R m*m et les dimensions des matrices E , F et G sont en accord avec celles de A et D .
L'inverse A −1 de la matrice A est donnée par :
 D−1 + D−1E(G − FD−1E) −1 FD−1 − D−1E(G − FD−1E)−1 
A −1 =  
 −(G − FD−1E) −1 FD−1 (G − FD−1E) −1 
si D−1 existe.

2ème cas, m < n :


Il existe une infinité de solution, parmi lesquelles ont peut retenir celle qui minimise la norme
x :
A + = A T ( AA T ) −1
Cette matrice est appelée pseudo-inverse à droite, elle vérifie la propriété AA + = I m .

3ème cas, m > n :


Il existe une solution approchée au sens des moindres carrés :
A + = ( A T A ) −1 A T
Cette matrice est appelée pseudo-inverse à gauche, elle vérifie la propriété AA + = I n .

Patrice Wira - 19 - 1999


Propriétés de la pseudo-inverse :
Si A est une matrice et α un scalaire, α ∈ R* :
(A + )+ = A
(α A ) + = α −1A +
( A + )T = ( A T ) +
A + = ( A T A ) + A T = A T ( AA T ) +
AA T ( A + ) + A T = A
A T AA + = A T
rang( A + ) = rang( A ) = rang(A T )

Détermination récursive de la pseudo-inverse (théorème de Gréville) :


Soit A ∈ R m*n . La détermination récursive de la matrice pseudo-inverse de A repose sur
l’idée de partition de A en colonnes.
A un instant k donné, la pseudo-inverse est calculée à partir de A k+−1 et de la colonne
courante d’indice k de la matrice A .
Soit A k =  A k −1 ak  où ak désigne la k-ième colonne de A k , alors (Kohonen, 1984, p. 51) :
 A ( I − a pT ) 
A k+ =  k −1 T k k 
 pk 
(I − A A + )a / (I − A A + )a 2
si
 k −1 k −1 k k −1 k −1 k (I − A k −1A +k −1 )a k ≠ 0
où p k =  2
( A +k −1 )T A +k −1a k /(1 + A +k −1a k ) sinon
Les conditions initiales sont les suivantes :
A1 = a1
aT (aT a ) −1 si a1 ≠ 0
A1+ =  1T 1 1
0 sinon

Le Lemme d’inversion matricielle (The matrix inversion Lemma)


Considérons l'expression suivante :

A −1 = B −1 + CT D −1C [1].

Quelle est alors l'expression de A = ( A −1 ) −1 ?


Multiplions [1] à gauche par A :
I = AB −1 + ACT D −1C [2].

Multiplions [2] à droite par B :


B = A + ACT D −1CB [3].

Patrice Wira - 20 - 1999


Multiplions [3] à droite par CT :
BCT = ACT + ACT D −1CBCT = ACT D −1 (D + CBCT ) [4].

Multiplions [4] à droite par [D + CBCT ]−1 :


BCT [D + CBCT ]−1 = ACT D −1 [5].

Multiplions [5] à droite par CB :


ACT D −1CB = BCT [D + CBCT ]−1 CB [6].

Retranchons [6] de B :
B − ACT D −1CB = B − BCT [D + CBCT ]−1 CB [7].

D'après [3], on tire que ACT D −1CB = B − A et on peut déduire que :


A = B − BCT [D + CBCT ]−1 CB [8].

Finalement, on retiendra une des deux formulations suivantes :


= B + CD ⇒ A −1 = B −1 − B −1CDT B −1[1 + DT B −1C]−1


T
A

A =B +C
−1 −1 T
D −1C ⇒ A = B − BCT [D + CBCT ]−1 CB

Le noyau d'une matrice


Pour un système d'équations homogènes Ax = 0 , A ∈ R m*n , x ∈ R n , l'ensemble des solutions
x constitue un espace vectoriel appelé noyau de A , noté Ker( A ) . La dimension de cet
espace sera notée N A .

Remarque : Une équation linéaire a1 x1 + a2 x2 + a3 x3 + ...an xn = h est dite non homogène si


h ≠ 0.

Théorème : pour A ∈ R m*n on a rang(A ) + N A = n .

Résolution de l’équation AXB = C


Considérons l'équation AXB = C (Kohonen, 1984, p.53), avec A , B et C des matrices
quelconques dont les dimensions sont en accords avec les règles de la multiplication
matricielle et où l'inconnu à déterminer est X .
La condition nécessaire et suffisante pour avoir une solution à cette équation est :

Patrice Wira - 21 - 1999


AA + CB + B = C .

La solution générale est de la forme :


X = A + CB + + Y − A + AYBB + ,
avec Y de mêmes dimensions que X .

Une solution particulière est X = A + CB + (cas pour Y = 0 ), c'est la solution dont la norme
Euclidienne est minimale.

11. Indépendance linéaire de vecteurs, la singularité


Soit un ensemble a1 , a2 ,..., a n de n vecteurs de dimension m, et α1 , α 2 ,..., α n un ensemble de
scalaires.
n
Le vecteur défini par c = ∑α a
i =1
i i forme une combinaison linéaire de vecteurs, notée {ai } .

L’ensemble des vecteurs {ai } est linéairement indépendants si :


c = 0 ⇔ α1 = α 2 = ... = αi = ... = α n = 0

Soit A une matrice, A ∈ R m*n .


- Les colonnes de A sont linéairement indépendantes si et seulement si A T A est une
matrice non singulière de rang plein,
- Les lignes de A sont linéairement indépendantes si et seulement si A T A est non
singulière.

Une matrice carrée A ∈ R n*n , est dite non singulière (ou inversible) si ∃ B ∈ R n*n telle que :
AB = BA = I ⇔ det( A ) ≠ 0 .

12. Le rang d’une matrice


Le rang d’une matrice correspond au nombre maximum de colonnes ou de lignes linéairement
indépendantes. C’est aussi l’ordre du plus grand déterminant non nul. Si k est cet ordre, on
dit que la matrice est de rang k.
Une matrice A , A ∈ R m*n , est dite de rang plein si : rang( A ) = min( m, n ) .

Propriété :
Quelle que soit une matrice A , A ∈ R m*n ,
rang( A ) = rang( A T ) = rang( AA T ) = rang( A T A ) .

Patrice Wira - 22 - 1999


13. La trace d’une matrice
La trace d’une matrice A , A ∈ R n*n est égale à la somme des éléments de la diagonale de
cette matrice :
n
trace( A ) = ∑ aii .
i =1

Propriété :
trace( AB) = trace(BA ) A ∈ R n*n , B ∈ R n*n .
∂ (trace( ABT ))
=B A ∈ R n*m , B ∈ R n*m .
∂A
∂ (trace( ABA T ))
D= = 2AB D ∈ R n*m et A ∈ R n*m , B ∈ R m*m .
∂A

14. La norme

La norme vectorielle
On appelle p-norme, la norme notée également Lp d’un vecteur x ∈ R n :
1/ p
 n p
x p
=  ∑ xi  .
 i =1 
Les normes les plus usuelles sont :
n
- la norme L1 également appelée norme absolue, x 1 = ∑x
i =1
i ,
1/ 2
 n 2
la norme L2 ou norme Euclidienne, x = x 2 =  ∑ xi  = ( xT x )
1/ 2
- .
 i =1 
Voici quelques propriétés de la norme Euclidienne, x et y ∈ R :
n

- x+y ≤ x + y ,
- xT y ≤ x . y ,
- v.w ≤ v w si v ∈ R n et w ∈ R n , on appelle cette propriété l'inégalité de
Schwartz.

La norme Euclidienne est aussi appelé norme quadratique (c’est la distance Euclidienne).
Une norme peut être pondérée. Ceci est surtout utilisé en Physique, lorsque les éléments d’un
vecteur sont de nature différente (représentent des grandeurs dans des unités différentes).

Soit x un vecteur à normer, x ∈ R n , on pose, y ∈ R n : y = Dx .


On calcule alors la norme (Euclidienne par exemple) du vecteur y plutôt que celle de x :

Patrice Wira - 23 - 1999


y = ( yT y ) = Dx = ( xT DT Dx ) = ( x T Qx ) .
1/ 2 1/ 2 1/ 2

La matrice Q = DT D est une matrice de pondération de la forme quadratique x T Qx


présente dans l’expression de la norme y .

Pour la matrice D ∈ R n*n , on prend souvent une matrice diagonale avec chaque terme comme
étant l’inverse de la valeur maximale que peut prendre l’élément concerné :
1 x1max 0 
D= 1 xi max .
 
 0 1 xn max 

La norme matricielle
Il existe plusieurs normes matricielles. La norme d’une matrice peut être définie dans
différent sens, elle doit satisfaire les contraintes posées par n’importe quel espace (Kohonen,
1984, p.47).
Les normes matricielles, sont définies de la même façon que les normes vectorielles.
On appelle p-norme d'une matrice A , A ∈ R m*n , la norme :
1/ p
 m n 
=  ∑∑ aij
p
A p  .
 i =1 j =1 

La norme matricielle la plus connue et la plus utilisées est l'équivalente de la norme


Euclidienne chez les vecteurs, on l'appelle la norme de Frobenius :
A = A E
= trace( A T A ) ,
1/ 2
 m n 
A =  ∑∑ aij
2
 .
 i =1 j =1 

La norme de Frobenius est la norme Euclidienne au sens matricielle, qui n’est pas compatible
avec la norme Euclidienne vectorielle (it is not consistent with the Euclidean vector norm).
Si A est une matrice carrée, A ∈ R n*n , et x un vecteur de n éléments, :
Ax = x .

La norme suivante est elle compatible avec la norme vectorielle :


A = max x =1 Ax .

Patrice Wira - 24 - 1999


15. L’orthogonalité
L’ensemble des vecteurs {ai } , ai ∈ R n , ∀i = 1,..., k , est orthogonal si :
T
ai a j = 0, ∀i ≠ j .

Ce même ensemble est orthogonal si :


T
ai a j = 0, ∀i ≠ j ,
T
ai ai = 1, ∀i .

Ceci se note également :


ai a j = δ ij ,
T

où δ ij est l’opérateur de Kronecker.


Une matrice carrée A ∈ R n*n est dite orthogonale si ses colonnes forment un ensemble
orthogonale :
A T A = AA T = I n ⇒ A T = A −1 .

Propriétés
Si A est une matrice carrée orthogonale, A ∈ R n*n , et x un vecteur de n éléments, x ∈ R n :
Ax = x
( Ax ) ( Ay ) = x
T T
y
Si A ∈ R m*n
, la condition d’orthogonalité se traduit par A T A = I n .

Quelques théorèmes
1. Si A est une matrice orthogonale, son inverse et sa transposée le sont également.
2. Le produit de plusieurs matrices orthogonales est une matrice orthogonale.
3. Le déterminant d'une matrice orthogonale est égal à ±1 .

16. Valeurs et vecteurs propres


Soit A une matrice carrée, A ∈ R n*n . Les valeurs propres λ i de cette matrices (appelées
aussi valeurs caractéristiques) sont les racines de l’équation polynomiale :
det( A − λ i I) = 0

L’ensemble des valeurs propres d’une matrice constitue son spectre.

Patrice Wira - 25 - 1999


Les vecteurs propres (ou vecteurs caractéristiques) v i de cette matrices se déduisent de la
définition suivante :
Av i = λ i v i

Comme le système est indéterminé, les vecteurs propres sont obtenus à une constante
multiplicative près, c’est à dire que l’on détermine des directions propres.

Remarques :
det( A − λ i I) = 0 est appelé polynôme caractéristique de A .
λ i I − A est appelé la matrice caractéristique de A .
Deux matrices sont dites semblables si elles ont le même polynôme caractéristique.

Propriétés
Si A est une matrice carrée, A ∈ R n*n , ayant pour valeurs propres λ i , i = 1,..., n :
n
det( A ) = ∏ λ i
i =1
n
trace( A ) = ∑ λ i
i =1

17. Diagonalisation d’une matrice


Si les valeurs propres d’une matrice A ∈ R n*n sont réelles et simples, on obtient n directions
propres distinctes que l’on peut utiliser comme axes de coordonnées. Dans ce nouveau
système d’axes, la matrice A devient une matrice D diagonale telle que :
λ 1 0 
D= λi .
 
 0 λ n 

Soit P la matrice formée par les composantes des vecteurs propres v i :


P = [ v1...v i ...v n ] .

Cette matrice ( P ∈ R n*n ) est appelée la matrice modèle de A . On montre alors que (Christol
et al., 1996, p 141) :
D = P −1AP .

La diagonalisation d'une matrice permet de résoudre de façon élégante des problèmes qui
peuvent sembler complexes au premier abord (Rotella et Borne, 1995).

Patrice Wira - 26 - 1999


Elle est souvent, dans le cas des problèmes complexes (les problèmes basés sur l'inversion de
matrices singulières), l'unique façon de procéder. On utilise alors d'autres méthodes pour
calculer les valeurs propres (Strang, 1993).
Les méthodes numériques prennent également de plus en plus d'importance dans le calcul
d'inversion de telles matrices (Stoer et Bulirsch, 1993).

Intérêt de la diagonalisation
Considérons le système différentiel linéaire suivant, représenté dans une base quelconque :
x = Ax .
Il est constitué de n équations différentielles du premier ordre dépendantes. Effectuons le
changement de base défini par :
x = Py ou y = P −1x .
Le système différentiel devient alors :
y = P −1x = P −1Ax = P −1APy ,

donc en fait : y = Dy ,

où D est une matrice diagonale. La résolution du système différentiel obtenu par


changement de base se réduit alors à n équations différentielles du premier ordre
indépendantes.
La diagonalisation permet également la simplification et l’étude des formes quadratiques
(Cairoli, 1991). Une autre application directe de la diagonalisation d'une matrice est la calcul
de ces puissances entières.

Puissance n-ème d'une matrice


La formule D = P −1AP avec A une matrice diagonalisable s'écrit aussi A = PDP −1 . On en
déduit que :
A n = PDP −1PDP −1...PDP −1 = PDn P −1 .

La matrice D (respectivement A ) représente l'endomorphisme (application linéaire) u dans


une base f formée de vecteurs propres (respectivement dans la base canonique e). La formule
précédente exprime simplement le fait que les matrices Dn et A n représentent le même
endomorphisme u n respectivement dans la base f et dans la base e.
Le produit de deux matrices est très facile à calculer : la matrice produit est diagonale et le i-
ème terme de sa diagonale est le produit des i-èmes termes des diagonales des deux matrices.

Patrice Wira - 27 - 1999


On en déduit que la puissance n-ème de la matrice diagonale D s'obtient simplement en
élevant à la puissance n chacun des termes de sa diagonale.

18. Formes quadratiques


Une forme quadratique est un polynôme homogène du second degré en n variables
x1 , x2 ,..., xn :
n n
f ( x1 ,..., xn ) = ∑∑ aij xi x j .
i =1 j =1

On peut représenter la forme quadratique grâce aux notations matricielles. Pour cela,
considérons A une matrice carrée, A ∈ R n*n , et x un vecteur de n éléments, x ∈ R n :
xT = [ x1 ... xn ] , A =  aij  ,
alors f ( x ) = xT Ax .

Remarque : On dit que de l’expression f ( x, y ) = x T Ay qu’elle est de la forme bilinéaire, avec


y un vecteur de dimension n, y ∈ R n .

Supposons que A soit une matrice réelle.


Toute matrice carrée peut être décomposée en une matrice A s symétrique, A s = A Ts , et en
une matrice A a anti-symétrique, A a = − A Ta .
Ainsi, A = A s + A a avec :
A + AT A − AT
As = et A a = .
2 2
Si la matrice A n’est pas symétrique au départ, on peut écrire :
xT Ax = xT ( A s + A a )x = x T A s x + x T A a x .
Dans cette expression, les deux termes sont des scalaires, ils sont donc égaux à leur
transposé, en particulier :
xT A a x = ( xT A a x )T = −xT A Ta x = − xT A a x
qui doit être nul, d’où
x T Ax = x T A s x .
On peut donc affirmer sans perdre de généralité que la matrice A de la forme quadratique
est symétrique.

19. Définitivité
On dit qu’une matrice A ∈ R n*n , est définie positive, A > 0 , si la forme quadratique qui lui
est associée est définie positive :
A > 0 ⇔ xT Ax > 0 , ∀ x ≠ 0 .

Patrice Wira - 28 - 1999


A est définie semi-positive, A ≥ 0 , si xT Ax ≥ 0 pour tout vecteur x ≠ 0 .
A est définie négative, A < 0 , si xT Ax < 0 pour tout x ≠ 0 .
A est définie semi- négative, A ≤ 0 , si xT Ax ≤ 0 pour tout vecteur x ≠ 0 .
On parle, selon la cas, de positivité ou de négativité.
En fait, une forme quadratique est dite non définie si son signe dépend du vecteur x .

Pour tester la positivité d’une matrice, on peut utiliser le critère de Sylvester qui dit qu’une
matrice est définie positive si tous ses mineurs principaux sont positifs :
A > 0 ssi m i > 0 , ∀i = 1,..., n .
Ce critère n’est plus valable pour la semi-positivité :
A ≥ 0 ssi m i ≥ 0 , ∀i = 1,..., n n’est pas vrai, mais :
A ≥ 0 ssi m i ≥ 0 et m ij ≥ 0 , ∀i = 1,..., n , ∀j = 1,..., n .
Les mêmes raisonnements sont valables pour les cas négatifs.

Cela peut également se vérifier en utilisant les valeurs propres λ i , ∀i = 1,..., n , de la matrice
A :
A > 0 ssi λ i > 0 ,
A ≥ 0 ssi λ i ≥ 0 ,
A < 0 ssi λ i < 0 ,
A ≤ 0 ssi λ i ≤ 0 .

20. Changement de base

Définition d'une base


Lorsqu'on travaille avec les combinaisons linéaires, il est commode d'introduire la notion de
famille de vecteurs d'un espace E qui généralise la notion de partie. Dans une famille, les
vecteurs sont rangés dans un certain ordre et le même vecteur peut apparaître plusieurs fois
(dans le langage des dénombrements mathématiques, une famille est un arrangement avec
répétition, alors qu'une partie est une combinaison). Les familles les plus intéressantes sont
celles ayant un nombre n fini d'éléments et pour lesquelles les vecteurs sont distincts. Ces
considérations faites, la différence entre famille et partie ne concerne alors plus que l'ordre des
vecteurs. On note une famille de n vecteurs indicés par l'ensemble I = {1,..., n} par (ai )i∈I ou
plus simplement, (ai ) .

Patrice Wira - 29 - 1999


Une famille de vecteurs libre est un ensemble de vecteurs linéairement indépendants. A
l'inverse, une famille liée contient au moins un vecteur qui est une combinaison linéaire des
autres.

On dit que la famille A est génératrice d'un sous-espace vectoriel F de E si A est contenu
dans F et si tout vecteur de F est une combinaison linéaire de vecteurs de A.

Une famille de vecteurs d'un espace vectoriel E qui est à la fois libre et génératrice de E est
appelé base de E.

Exemple : la base canonique.


La famille (e1 , e 2 ,...e n ) formée des n vecteurs e1 = (1, 0,...0) , e 2 = (0,1, 0,...0) , …
ei = (0, 0,...,1, 0,...0) , … e n = (0, 0,..., 0,1) de R est une base de R appelée base canonique.
n n

Application : plusieurs repères dans l'espace 3D


L’objectif que l’on se fixe est de représenter n’importe point de l'espace 3D dans plusieurs
bases.

On se place dans un repère 3D R1 , défini par une base orthonormée. A partir de ce premier
repère, on définit par rapport à R1 un second repère R2 , également défini par une base
orthonormée.
Le passage d'un repère à un autre fait intervenir deux opérations essentielles : la translation
et la rotation.
Le repère R2 est donc défini par la position de son origine O2 dans le repère R1 (c'est la
translation, définie par un vecteur t ∈ R 3 ) et par l'orientation des vecteurs formant sa base
(c'est la rotation, définie par une matrice A ∈ R 3*3 ) par rapport à ceux qui constituent la
base de R1 .

Considérons dans un premier temps qu'une simple translation de t = [ 4 2 2] comme le


T

montre la figure suivante.


S'il n'y a pas de rotation pour passer d'un repère à l'autre, la matrice de rotation est la
matrice identité : A = I 3 .

Patrice Wira - 30 - 1999


y z

4
4

P
3
3 P

O2
2 2
O2

Q
1 1
Q

x y

0 0
0 1 2 3 4 5 6 0 1 2 3 4 5 6
O1 O1

Figure 5 : Les points P et Q dans le premier repère Figure 6 : Les points P et Q dans le premier repère
par rapport aux axes x et y. par rapport aux axes y et z.

Connaissant les coordonnées d'un point PR2 = [1 1 1] dans le repère R2 , on veut connaître
T

ses coordonnées PR1 dans le repère R1 :


PR1 = APR2 + t .

On trouve alors : PR1 = [5 3 3] .


T

On peut poser le problème inverse : quelles sont les coordonnées dans R2 d'un point défini
dans R1 ?
Dans R1 définissons le point Q tel que QR1 = [1 1 1] . Les coordonnées de Q dans R2 sont
T

données par l'application inverse à celle définie précédemment :


QR1 = AQR2 + t ,
QR2 = A −1(QR1 − t ) .

L'application numérique donne QR2 = [ −3 −1 −1] .


T

Considérons maintenant, que le passage de R1 à R2 ne se fasse non seulement par la


t = [ 4 2 2]
T
translation de mais aussi par une rotation définie par la matrice
 0 −1 0 
A =  0 0 −1 (les angles d'Euler équivalents sont : [ψ ϑ ϕ ] = [ 0 π / 2 π / 2] ).
T T

1 0 0 

Patrice Wira - 31 - 1999


0

4 2

y
3
z
3
2
5

1 4

3 4
0
2
0
1
2 1
3
4
y
0
5
0 1 2 3 4
x x

4 4

3 3

z z

2 2

1 1

0 0
0 1 2 3 4 0 1 2 3 4
x y

Figure 7 : Un cube dans un espace 3D, le point Q est représenté par un cercle magenta.

Le point S, défini dans R2 par SR2 = [1 1 1] et représenté sur les figures précédentes par
T

un cercle (un des sommets du cube) a pour coordonnées dans R1 SR1 selon la formule :
SR1 = ASR2 + t ,

soit après calcul, SR1 = [3 1 3] .


T

Le point T, défini dans le repère R1 par TR1 = [3 −8 3]


T
voit ses coordonnées TR2 dans
R2 données par l'application inverse :
TR2 = A −1(TR1 − t ) .
Le calcul donne TR2 = [1 1 10] .
T

On voit finalement, que le passage d'un repère à l'autre utilise une multiplication à gauche,
que ce soit pour passer de R1 à R2 , ou inversement de R2 à R1 . La multiplication à cause
peut donc de façon générale être assimilé à un changement de base.

Patrice Wira - 32 - 1999


Application : les axes principaux d'une ellipse
L’objectif que l’on se fixe est de représenter n’importe quelle ellipse en coordonnées polaires.

Dans un premier temps, on rappelle un cas particulier, celui où les axes de l’ellipse sont
parallèles aux axes de coordonnées. On généralisera ensuite pour le cas des axes quelconques.

Axes de l’ellipse parallèles aux axes de coordonnées :


L'équation d'une ellipse est donnée par :
a ( x − x0 ) 2 + b( y − y0 ) 2 = d ,

avec { x0 , y0 } le centre de l’ellipse et a , b et d positifs.


On peut aussi écrire :
( x − x0 ) 2 ( y − y0 ) 2
+ = 1,
ρ a2 ρb2

avec ρ a = d / a et ρ b = d /b .
Les coordonnées polaires qui représentent cette ellipse sont alors :
 x = ρ a cos(ϑ ) + x0

 y = ρ b cos(ϑ ) + y0
avec 0 ≤ ϑ ≤ 2π .

Axes de l’ellipse quelconques :


L'équation générale d'une ellipse quelconque décrite dans un référentiel est :
a ( x − x0 ) 2 + b( y − y0 ) 2 + 2c( x − x0 )( y − y0 ) = d .

On peut aussi l’écrire sous forme quadratique :


 a c   x − x0 
[ x − x0 y − y0 ]   =d.
 c b   y − y0 
Soit, en notation matricielle :
xT Ax = d .

La courbe correspondante est une ellipse si la matrice A est définie positive, c’est à dire si a
et b sont positifs et si det( A ) > 0 , soit ab > c 2 .
Caractériser une ellipse revient à déterminer ses axes principaux qui sont les directions
propres de la matrice A . Les vecteurs propres de A sont définis par :
det( A − λi I) = 0 ,

Patrice Wira - 33 - 1999


soit,
a+b ± ( a − b) 2 + 4c 2
λi = .
2

Soient d1 et d 2 les directions propres et v1 et v 2 les vecteurs propres A . Les vecteurs


propres vérifient la relation :
Av i = λi v i .

Ces vecteurs sont définis à une constante près : on ne connaît que leurs directions d1 et d 2 ,
soit :
 d1 : y = α1 x avec α1 = ( λ1 − a ) / c

 d 2 : y = α 2 x avec α 2 = ( λ2 − a ) / c

Soient v et w les coordonnées d’un point dans les axes définis par les directions d1 et d 2 .
Avec ces coordonnées, l’équation de l’ellipse s’écrit :
λ1v 2 + λ2 w2 = d ,
ou
v2 w2
+ = 1,
ρ12 ρ 22
avec ρ1 = d / λ1 et ρ 2 = d / λ2 .
On peut donc facilement tracer l’ellipse avec les coordonnées {v, w} , puis passer dans les axes
{ x , y} par une matrice de changement de base.

Soit B la matrice de changement de base telle que :


 x v
 y = B  w
   
On démontre alors que :
 1 1 
 
 1 + α12 1+α  2
2
B= .
 α α2 
 1

 1 + α1 1 + α12 
2

21. Matrice racine carrée

Patrice Wira - 34 - 1999


Toute matrice A , A ∈ R n*n , définie semi-positive, A ≥ 0 , peut être factorisée en deux
matrices racines carrées tel que :
A = A A T ou A = A T A .
Les matrices racines carrées « gauche » et « droite » des deux expressions précédentes ne
sont pas forcément les mêmes.
Il peut y avoir plusieurs matrices racines carrées, et de toutes sortes. En fait, si M est une
matrice orthogonale, MT = M −1 , M ∈ R n*n , alors on montre que :
A = AT MT M A .
A T MT est une matrice racine carrée de A .
Si A > 0 , alors toutes les matrices racines carrées de A sont non singulières.

Patrice Wira - 35 - 1999


Les fonctions vectorielles (matrix calculus)

1. La différentiation et l’intégration par rapport à un scalaire


Soit x vecteur, x ∈ R n et soit A une matrice, A ∈ R m*n .
La dérivée du vecteur x par rapport à un scalaire t vaut :
 ∂x1 ∂t 
∂x   ∂xT
= et = [∂x1 ∂t ∂xn ∂t ] .
∂t   ∂t
 ∂xn ∂t 

La dérivée de la matrice A par rapport à un scalaire t vaut :


∂A  ∂aij 
= .
∂t  ∂t 

Quelques propriétés sur la dérivation :


Soient A ∈ R m*n et B ∈ R m*n des matrices et soit x ∈ R n un vecteur :

∂ ∂A ∂B
( A + B) = +
∂t ∂t ∂t
∂ ∂A ∂B
( AB) = B+A
∂t ∂t ∂t
∂A n
∂A n −1 ∂A n −2 ∂A
= A +A A + + A n −1
∂t ∂t ∂t ∂t
∂A −1 ∂A −1
= − A −1 A
∂t ∂t
∂A ∂A
= trace( A)
∂t ∂t
∂( AA −1 ) ∂I
= =0
∂t ∂t

Remarque : dérivée d'un déterminant par un scalaire



La dérivée det( A) du déterminant d'une matrice A ∈ R n*n est la somme des n
∂t
déterminants obtenus en remplaçant de toutes les manières possibles les éléments d'une ligne
(colonne) de det( A) par leurs dérivées par rapport à t.

Patrice Wira - 36 - 1999


Si x est un vecteur, x ∈ R n et si A est une matrice, A ∈ R m*n , leur intégration par rapport
à un scalaire t donne :
 x1∂t 
∫ 
∫ x ∂t =   et ∫x
T
∂t =  ∫ x1∂t ∫ x ∂t  ,
   n

 ∫ xn ∂t 

∫ A∂t =  ∫ a ∂t  .
ij

2. Définition d'une fonction vectorielle


Un ensemble de fonctions multivariables à valeurs réelles, f1 ( x ) , f 2 ( x ) , ..., f m ( x ) , x ∈ R n ,
peut être représenté par une unique fonction vectorielle, f : R n → R m , f i : R n → R :
f ( x ) = [ f1 ( x ) f m (x )]
T
f 2 (x) .

Si f (x) est une fonction vectorielle, y = f ( x ) = [ f1 ( x ) f m (x )]


T
f 2 (x ) , où x ∈ R n et
f : Rn → Rm .
La dérivée de la fonction f relative à une constante t vaut :
∂( yQy ) ∂y ∂f ( x )
= y T Qy + y T Qy = 2 y T Qy avec y= = et avec Q une matrice de
∂t ∂t ∂t
pondération.

3. Le gradient d’une fonction scalaire


Soit une fonction multivariable à valeurs scalaires, définie par :
f ( x ) = f ( x1 , x2 , , xm ) , f : R n → R .
x est un vecteur de dimension n, x ∈ R n .
Le gradient de la fonction f par rapport à x a pour expression :
T
∂f ( x )  ∂f ( x )   ∂f ( x ) ∂f (x ) ∂f (x ) 
= ∇x f (x ) =   = .
∂x  ∂xi  n*1  ∂xi ∂x2 ∂xn 

Le vecteur gradient représente le vecteur des dérivées premières de la fonction f.

Le gradient de la fonction scalaire f ( x ) = x T Qx , avec Q une matrice de pondération,


Q ∈ R n*n , x ∈ R n , vaut :

Patrice Wira - 37 - 1999


∂f (x )
∇x f (x ) = = 2x T Q .
∂x

4. La Jacobienne d’une fonction vectorielle


f ( x ) = [ f1 ( x ) f m (x )]
T
Soit une fonction vectorielle f 2 (x) , où x ∈ Rn et
f :R →Rn m
.
La matrice des dérivées premières de la fonction f relatives aux composantes x j du vecteur
x s’écrit :
∂f ( x )  ∂f i ( x ) 
J(x) =
= .
∂x  ∂ x j 
On appelle cette matrice la matrice Jacobienne de f . Cette matrice s’écrit également :
 ∂f1 ( x ) ∂f1 (x ) 
 ∇x f1 ( x )   ∂x1
T
∂xn 
   
J(x) =  = .
∇x f m ( x )   ∂f m ( x )
T
∂f m ( x ) 
   
 ∂x1 ∂xn 

5. La Hessienne d’une fonction scalaire


Etant donné une fonction scalaire f (x ) , f : R n → R . La matrice Hessienne de f (x )
relative au vecteur x ∈ R n est définie comme la matrice symétrique suivante :
 ∂ 2 f (x ) 
H( x ) =   .
 ∂xi ∂x j  n*n

En notant f ( x ) la fonction vectorielle qui vaut :


T
∂f ( x )  ∂f (x )   ∂f (x ) ∂f (x ) ∂f (x ) 
f (x ) = ∇x f (x ) = =  = ,
∂x  ∂xi  n*1  ∂xi ∂x2 ∂xn 

La matrice Hessienne s’écrit :

Patrice Wira - 38 - 1999


T
∂f ( x ) ∂ ∂  ∂f ( x ) 
= ∇ x f ( x ) = [∇ x f ( x ) ] =
T
H( x ) =   = ∇ 2xx f ( x )
∂x ∂x ∂x  ∂x 
 ∂ 2 f (x) ∂ 2 f (x ) 
 ∂x ∂x ∂x1∂xn  .
 1 1 
= 
 2 
 ∂ f (x) ∂ 2 f (x ) 
 ∂xn ∂x1 ∂xn ∂xn  n*n

La matrice Hessienne est la matrice des dérivées secondes de la fonction scalaire f


relativement au vecteur x ∈ R n . Elle représente la matrice Jacobienne du gradient de la
fonction scalaire f.

6. La dérivation chainée
Soit la fonction scalaire composée : f ( x ) = h( g (( x )) , x ∈ R n et f : R n → R .
La règle de dérivation chaînée permet d’écrire :
∂f ∂h ∂g
= .
∂xi ∂g ∂xi

Dans le cas général, si h : R r → R m , g : R n → R r et f : R n → R m , alors :


∇x f ( x ) = ∇g h(g( x ))∇x g( x ) .

7. Expansions en série de Taylor et de Maclaurin

Expansion en série de Taylor d'une fonction scalaire multivariable


Soit une fonction scalaire multivariable f ( x ) , f : R n → R , x ∈ R n .
L’expansion en série de Taylor de f ( x ) au voisinage d’un point x 0 en termes de
∆x = x − x 0 = ∆xi = xi − x0i (i = 1, ..., n) s’exprime ainsi :
n
∂f ( x ) 1 n n ∂ 2 f (x)
f ( x ) = f ( x 0 + ∆x ) = f ( x 0 ) + ∑ ∆xi + ∑∑ ∆xi ∆x j + ε ( x 0 )
i =1 ∂xi 2 i =1 j =1 ∂xi ∂x j

où ε ( x 0 ) sont les termes d’ordres supérieur impliquants les dérivées partielles d’ordre
supérieur, négligeables lorsque ∆x est suffisamment petit.
En notation vectorielle, on obtient :
1
f ( x ) = f ( x 0 ) + ∆xT ∇x f ( x 0 ) + ∆xT ∇ 2x f (x 0 )∆x + ε (x 0 )
2

Patrice Wira - 39 - 1999


Série de Taylor à deux variables
Soit une fonction scalaire f ( x, y ) à deux variables admettant des dérivées partielles d’ordre
n+1 dans un certain domaine, pour des points ( x0 , y0 ) et ( x, y ) .
L’expansion en série de Taylor de f ( x, y ) au voisinage d’un point ( x0 , y0 ) est :
∂f ( x0 , y0 ) ∂f ( x0 , y0 )
f ( x, y ) = f ( x0 , y0 ) + ( x − x0 ) + ( y − y0 )
∂x ∂y
( x − x0 )2 ∂ 2 f ( x0 , y0 ) ∂ 2 f ( x0 , y0 ) ( y − y0 ) 2 ∂ 2 f ( x0 , y0 )
+ + ( x − x0 )( y − y 0 ) + + ε ( x0 , y0 )
2 ∂x 2 ∂x∂y 2 ∂y 2

Avec ∆x = x − x0 et ∆y = y − y0 , on a :
∂f ( x0 , y0 ) ∂f ( x0 , y0 )
f ( x0 + ∆x, y0 + ∆y ) = f ( x0 , y0 ) + ∆x + ∆y
∂x ∂y
∆x 2 ∂ 2 f ( x0 , y0 ) ∂ 2 f ( x0 , y0 ) ∆y 2 ∂ 2 f ( x0 , y0 )
+ + ∆ x ∆ y + + ε ( x0 , y0 )
2 ∂x 2 ∂x∂y 2 ∂y 2

Par rapport au cas multivariable, on a posé : x = [ x y ] , x 0 = [ x0 y0 ] .


T T

Série de Taylor à une variable (à l’ordre n)


L’expansion en série de Taylor à l'ordre n d'une une fonction scalaire f ( x) dépendant d'une
unique variable x est :
∂f ( x0 ) ( x − x0 ) 2 ∂ 2 f ( x0 ) ( x − x0 ) n ∂ n f ( x0 )
f ( x ) = f ( x0 ) + ( x − x0 ) + + ... + + ε ( x0 ) ,
∂x 2 ∂x 2 n! ∂x n

c'est à dire, avec ∆x = x − x0 et ∆y = y − y0 :


∂f ( x0 ) ∆x 2 ∂ 2 f ( x0 ) ∆x n ∂ n f ( x0 )
f ( x0 + ∆x ) = f ( x0 ) + ∆x + + ... + + ε ( x0 ) .
∂x 2 ∂x 2 n ! ∂x n

Série de Maclaurin à une variable (à l’ordre n)


L’expansion en série de Maclaurin est un cas particulier de celle de la série de Taylor. Cette
particularité est marquée par le fait que l'expansion se fait autour de x0 = 0 ce qui revient à
dire que ∆x = x :
∂f (0) x 2 ∂ 2 f (0) x n ∂ n f (0)
f ( x ) = f (0) + x + + ... + .
∂x 2 ∂x 2 n ! ∂x n

Patrice Wira - 40 - 1999


Série de Maclaurin à deux variables
Soit une fonction scalaire f ( x, y ) à deux variables. Son expansion en série de Maclaurin
s'écrit :
∂f (0,0) ∂f (0,0) x 2 ∂ 2 f (0,0) ∂ 2 f (0,0) y 2 ∂ 2 f (0,0)
f ( x, y ) = f (0,0) + x +y + + xy + + ... .
∂x ∂y 2 ∂x 2 ∂x∂y 2 ∂y 2

Expansion en série de Maclaurin d'une fonction scalaire multivariable


Si f ( x ) est une fonction scalaire multivariable, f : R n → R , x ∈ R n , son expansion en série
de Maclaurin au voisinage de x 0 et en termes de ∆x = x − x 0 = ∆xi = xi − x0i (i = 1, ..., n) est
donné par :
n
∂f (0) 1 n n ∂ 2 f (0)
f ( x ) = f (0) + ∑ xi + ∑∑ xi x j + ... .
i =1 ∂xi 2 i =1 j =1 ∂xi ∂x j

La notation vectorielle est plus adaptée :


1
f ( x ) = f (0) + xT ∇x f (0) + xT ∇ x2 f (0)x + ... .
2

Patrice Wira - 41 - 1999


Bibliographie

Ayres, F., Jr., 1991. Matrices : cours et problèmes, McGraw Hill, New York.

Cairoli, R., 1996. Algèbre linéaire, Presses Polytechniques et Universitaires Romandes,


Lausanne.

Christol, G., Pilibossian, P., and Yammine, S., 1996. Algèbre, cours et exercices corrigés,
Ellipses-Edition Marketing, Paris.

Kohonen, T., 1984. Self-Organization and Associative Memory, Springer-Verlag, Berlin.

Rotella, F., and Borne, P., 1995. Théorie et pratique du calcul matriciel, Editions Technip,
Paris.

Stoer, J., and Bulirsch, R., 1993. Introduction to Numerical Analysis, Springer-Verlag, New
York.

Strang G., 1993. Introduction to Linear Algebra, .Welleley Cambridge Press, Wellesley.

Annexe

Alphabet Grec
Alpha Α α Nu Ν ν
Bêta Β β Xi Ξ ξ
Gamma Γ γ Omicron Ο ο
Delta ∆ δ Pi Π π
Epsilon Ε ε Rhô Ρ ρ
Zêta Ζ ζ Sigma Σ σ
Êta Η η Tau Τ τ
Thêta Θ θ Upsilon Υ υ
Iota Ι ι Phi Φ φ, ϕ
Kappa Κ κ Khi Χ χ
Lambda Λ λ Psi Ψ ψ
Mu Μ µ Oméga Ω ω

Patrice Wira - 42 - 1999

Vous aimerez peut-être aussi