Académique Documents
Professionnel Documents
Culture Documents
Cours Sur Les Matrices
Cours Sur Les Matrices
Patrice Wira
Université de Haute-Alsace
Faculté des Sciences et Techniques
2000 - 2001
Sommaire
2. L’addition
L’addition matricielle
L’addition matricielle n’est définie qu’entre deux matrices de même dimensions. La matrice
résultante est de la même dimension que les matrices additionnées et chacun de ses éléments
est la somme des éléments des deux matrices correspondant à la même ligne et à la même
colonne.
Soient A ∈ R m*n et B ∈ R m*n . L’addition de ces deux matrices est donnée par :
C = cij = aij + bij .
On la note : C = A + B , C ∈ R m*n .
Il en va de même pour la soustraction, au signe près. La soustraction des matrices A et B
est donnée par :
C = cij = aij − bij .
Propriétés de l’addition
En considérant trois matrices, A ∈ R m*n , B ∈ R m*n et C ∈ R m*n , on a les trois propriétés
suivantes :
1 + 5 4 + 2 0 + 6 6 6 6
A+B= = et
2 + 0 7 + 1 3 + 1 2 8 4
−4 2 −6
A−B= .
2 6 2
L'addition de deux vecteurs (de dimensions Une combinaison linéaire de deux vecteurs
2, v, w ∈ R ) 2
permet de définir un v ∈ R 2 et w ∈ R 2 est l'addition de deux
parallélogramme. Le vecteur résultant u vecteurs à qui on fait subir un changement
est une des diagonale du parallélogramme. de longueur par des coefficients scalaires.
4 4
Prenons par exemple v= et Reprenons les vecteurs exemple v = et
2 2
−1 −1
w = , on obtient alors : w= :
3 3
4 −1 3 4 −1
u= v+w = + = u = −2 v + w = −2 +
2 3 5 2 3
−8 −1 −9 9
= + = = −
−4 3 −1 1
-
-
w -
- -
- | | | | | | | | | | | |- |
- u u -
- -
w -2 v
- v -
| |- | | | | | |
Figure 1: L'addition de deux vecteurs. Figure 2 : La soustraction de deux vecteurs.
3. Le produit
c A = Ac Commutativité, A ∈ R m*n .
c ( A + B ) = cA + cB Distributivité, A ∈ R m*n et B ∈ R m*n .
c( AB) = (cA )B = A( cB) = ( AB)c Associativité, où AB est la multiplication
matricielle entre les matrices A ∈ R m*n et
B ∈ R n* p .
La multiplication matricielle
La multiplication entre deux matrices n’est définie que lorsque leurs dimensions son
compatibles : le nombre de colonnes de la matrice à gauche de l’opérateur doit correspondre
au nombre de lignes de la matrice à droite de l’opérateur.
Si A ∈ R m*n , et si B ∈ R n* p , la multiplication entre les matrices A et B donne une
matrice C de dimensions m*p telle que tous ses éléments :
n
cij = ∑ aik bkj .
k =1
C( A + B) = CA + CB Distributivité à gauche
(distributive law from the left)
avec A , B ∈ R m*n et C ∈ R p*m .
Quelques exemples
5 −3 8 −2 6
• Si A ∈ R 2*2 et B ∈ R 2*3 tel que A = , B= , alors
4 2 7 0 9
−2
4
xy = [1 3 5 −1] = [1( −2) + 3(4) + 5(2) + ( −1)(6) ] = 14 .
2
6
Le produit interne
Soient deux vecteurs de même dimension, x ∈ R n et y ∈ R n . On appelle produit interne (en
Anglais on parlera de « inner product » ou de « vector dot product ») la somme des
multiplications éléments par éléments de chaque vecteur :
n
x T , y = xT y = y T x = ∑ yi xi .
i =1
Cette opération retourne un scalaire. Le produit interne est aussi appelé produit scalaire, il
n’est défini que si les deux vecteurs sont de même taille.
Le produit interne est un moyen de mesurer comment deux vecteurs sont parallèles. Deux
vecteurs sont orthogonaux si leur produit scalaire est nul.
Les deux vecteurs x et y sont dit orthogonaux quand leur produit interne est nul ( θ =90°),
on le note x ⊥ y .
Remarque : parfois le produit entre deux matrices en également appelé produit scalaire, mais
l’ordre de x et y est important : xT y ≠ y T x qui donne un nombre, et qu’il faut différencier
de yxT (produit externe) qui est une matrice.
Formellement, ce produit peut être considéré comme un déterminant, avec les vecteurs
(i, j, k ) constituants la base dans la première colonne :
i x1 y1
x2 y2 x1 y1 x1 y1
x×y = j x2 y2 = i− j+ k,
x3 y3 x3 y3 x2 y2
k x3 y3
x × y = ( x2 y3 − x3 y2 )i + ( x3 y1 − x1 y3 ) j + ( x1 y2 − x2 y1 )k .
Remarque : ce n’est pas un vrai déterminant dans le sens où il ne retourne pas une grandeur
scalaire.
Le produit mixte
Soit trois vecteurs x , y et z ∈ R n . Le nombre réel (x × y ).z , c'est à dire le produit scalaire
du vecteur x × y par le vecteur z , s'appelle le produit mixte des trois vecteurs x , y , z
(dans cet ordre). Le résultat est un scalaire. On parle en Anglais de « scalar triple product ».
Le produit externe
Considérons deux vecteurs de dimensions différentes, x ∈ R m et y ∈ R n . On appelle produit
externe (traduit en Anglais par « outer product » ou « dyadic product ») :
x1 y1 x1 yn
x, y = xy =
T
xi y j , avec i = 1,..., m , j = 1,..., n .
xm y1 xm yn
z = zij = xy T = xi y j , avec i = 1,..., m , j = 1,..., n .
Cette opération retourne une matrice de m lignes et n colonnes. Ce produit peut être défini
comme un produit matricielle.
Le produit externe joue un rôle important lorsqu’il s’agit de déterminer comment sont
corrélés les éléments d’un vecteur avec ceux d’un autre.
1 2 3 4 5 6 7 8 9 10
2 4 6 8 10 12 14 16 18 20
3 6 9 12 15 18 21 24 27 30
4 8 12 16 20 24 28 32 36 40
5 10 15 20 25 30 35 40 45 50
xxT = .
6 12 18 24 30 36 42 48 54 60
7 14 21 28 35 42 49 56 63 70
8 16 24 32 40 48 56 64 72 80
9 18 27 36 45 54 63 72 81 90
10 20 30 40 50 60 70 80 90 100
Interprétation géométrique
θ AxB
A.B A
X X
Y Y
Le produit scalaire :
Le scalaire qui est retourné est proportionnel à la projection du premier vecteur sur le second.
Cet opération est fréquemment utilisée pour mesurer l’orthogonalité de deux vecteurs mais
aussi pour décrire la composante d’un vecteur dans une direction particulière.
Le produit vectoriel :
Le produit vectoriel, noté A × B est un vecteur orthogonal à A et à B . Il est nul si A et B
sont parallèles. Il est utilisé pour déterminer la normale de deux droites. C’est ainsi qu’on
défini le vecteur normal d’une surface en un point quelconque.
Le produit mixte :
La valeur absolue du produit mixte est le produit de la longueur de la projection du vecteur
z sur la perpendiculaire au plan de même direction que les vecteurs x et y sur la surface du
parallélogramme construit sur les vecteurs x et y . Autrement dit, c'est le volume du
parallélépipède construit sur les trois vecteurs x , y et z . On dit aussi que le produit mixte
représente le volume algébrique de ce parallélépipède.
x × y z
y
5. L’opérateur de transposition
La transposée d’une matrice A est la matrice A T (notée parfois aussi A ' ) définie par :
A ∈ R m*n , A T ∈ R n*m ,
A = aij m*n , AT = a ji n*m .
6. Matrices particulières
La matrice nulle
La matrice dont tous les termes sont nuls est appelée matrice nulle. On la note A = 0 :
aij = 0 , ∀i , ∀j .
La matrice identité
Une matrice identité est une matrice diagonale A ∈ R n*n (donc carrée) qui voit tous ses
éléments nuls sauf ceux de sa diagonale principale qui sont unitaires. On la note I n ou I :
aij = 0 ∀i ≠ j
A=I⇔ , .
aii = 1 i = 1,..., n
Matrice triangulaire
Une matrice triangulaire supérieure (respectivement inférieure) est une matrice carrée
A ∈ R n*n dont les éléments qui se trouvent au-dessous (respectivement au-dessus) de la
diagonale principale sont nuls, c'est à dire telle que aij = 0 , ∀i > j ( ∀i < j ). Elle est donc de
la forme :
a11 a12 a1n a11 0 0
0 a22
A = aij =
(respectivement A = a = a21 a22 ).
ij 0
0 0 ann an1 ann
Matrice idempotente
Considérons une matrice carrée A ∈ R n*n . Si AT A = A , alors A est dite idempotente.
7. Matrices partitionnées
La composante de base d’une matrice A de dimensions quelconques est aij . Il est parfois
intéressant de considérer une matrice en tant que tableau de matrices élémentaires.
Soit :
A A12 m
A = aij = 11
A 21 A 22 n ,
p q
avec A11 ∈ R m* p , A12 ∈ R m*q , A 21 ∈ R n* p , A 22 ∈ R n*q .
B1
Considérons une seconde matrice B partitionnée ainsi : B = , où B1 ∈ R p*1 , B 2 ∈ R q*1 .
B2
On peut alors écrire :
A A12 B1 A11B1 + A12 B 2
AB = 11 = .
A 21 A 22 B 2 A 21B1 + A 22B 2
Toutes les sous-matrices doivent comporter des dimensions compatibles avec les règles du
produit matriciel.
a11
a12
Si n = 2, det(A ) = = a11a22 − a12 a21 .
a21 a22
Si n = 3, det(A ) = a11a22a33 + a13a32 a21 + a12 a23a31 − a11a23a32 − a22a13a31 − a33a12 a21 .
Lorsque le déterminant d’une matrice est nul, on dit que la matrice est singulière.
Remarques :
n
det(A ) = ∑ akj ckj pour tous les lignes k de A .
j =1
n
det(A ) = ∑ ail cil pour tous les colonnes l de A .
i =1
Quelques théorèmes
1. Si tous les éléments d'une ligne (colonne) d'une matrice A ∈ R n*n sont nuls alors
det( A) = 0 .
2. Si tous les éléments d'une ligne (colonne) du déterminant d'une matrice A ∈ R n*n sont
multiplié par un scalaire k, alors le déterminant est multiplié par k.
3. Si B est obtenue à partir de A ∈ R n*n en échangeant deux de ces lignes (colonnes), alors
det(B) = −det( A) .
4. Si B est obtenue à partir de A ∈ R n*n en faisant passer la i-ème ligne (colonne) par
dessus p lignes (colonnes), alors det(B) = (−1) p det( A ) .
Le calcul du déterminant d'une matrice A ∈ R 3*3 peut être calculé par la règle dite de Sarrus
(Christol et al. 1996, p. 108).
Les mineurs
Les mineurs mij des éléments aij d’une matrice A carrée, A ∈ R n*n , sont les déterminants de
la partie restante de A lorsqu’on ne tient pas compte de la ligne i et de la colonne j.
Les cofacteurs
Les cofacteurs cij des éléments aij d’une matrice A carrée, A ∈ R n*n , sont donnés par :
cij =( −1)i + j mij .
Propriétés
∼ ∼
A A = A A = A I où A est le déterminant de la matrice A .
adj(AB) = adj(A).adj(B) .
Exemples
a11 a12 a13
En ce qui concerne la matrice A ∈ R , A = a21 3*3
a22 a23 , nous avons le mineur
a31 a32 a33
a a a a12
m23 = 11 12 et le cofacteur cij = ( −1) 2+3 m23 = − 11 .
a31 a32 a31 a32
Cette règle peut être appliquée à n’importe quel système de n équations linéaires à n
inconnues, pourvu que le déterminant des coefficients aij soit différent de zéro.
1er cas, m = n :
C’est la cas d’une matrice carrée. Si A est une matrice non singulière (c’est à dire
det( A ) ≠ 0 ), alors A + = A −1 est la matrice inverse de A . La matrice A −1 vérifie la
propriété A −1A = AA −1 = I n .
Exemple lorsque n = 2 :
a11 a12 a11 a21
Si A = , on détermine A T = puis on remplace chaque élément de A T
a21 a22 a12 a22
a22 −a12
par son cofacteur pour déterminer adj(A ) = .
−
21a a11
On calcule det(A ) = a11a22 − a12 a21 , puis on détermine la matrice inverse A −1 en divisant
chaque élément de adj(A ) par det(A ) .
On peut également calculer l'inverse d'une matrice A par la méthode du pivot de Gauss
(Christol et al. 1996, p. 19) dans le cas particulier où la matrice est carrée et est inversible.
Le système, caractérisé par la matrice A , est alors dit système de Cramer ou système
régulier dans ce cas.
Retranchons [6] de B :
B − ACT D −1CB = B − BCT [D + CBCT ]−1 CB [7].
Une solution particulière est X = A + CB + (cas pour Y = 0 ), c'est la solution dont la norme
Euclidienne est minimale.
Une matrice carrée A ∈ R n*n , est dite non singulière (ou inversible) si ∃ B ∈ R n*n telle que :
AB = BA = I ⇔ det( A ) ≠ 0 .
Propriété :
Quelle que soit une matrice A , A ∈ R m*n ,
rang( A ) = rang( A T ) = rang( AA T ) = rang( A T A ) .
Propriété :
trace( AB) = trace(BA ) A ∈ R n*n , B ∈ R n*n .
∂ (trace( ABT ))
=B A ∈ R n*m , B ∈ R n*m .
∂A
∂ (trace( ABA T ))
D= = 2AB D ∈ R n*m et A ∈ R n*m , B ∈ R m*m .
∂A
14. La norme
La norme vectorielle
On appelle p-norme, la norme notée également Lp d’un vecteur x ∈ R n :
1/ p
n p
x p
= ∑ xi .
i =1
Les normes les plus usuelles sont :
n
- la norme L1 également appelée norme absolue, x 1 = ∑x
i =1
i ,
1/ 2
n 2
la norme L2 ou norme Euclidienne, x = x 2 = ∑ xi = ( xT x )
1/ 2
- .
i =1
Voici quelques propriétés de la norme Euclidienne, x et y ∈ R :
n
- x+y ≤ x + y ,
- xT y ≤ x . y ,
- v.w ≤ v w si v ∈ R n et w ∈ R n , on appelle cette propriété l'inégalité de
Schwartz.
La norme Euclidienne est aussi appelé norme quadratique (c’est la distance Euclidienne).
Une norme peut être pondérée. Ceci est surtout utilisé en Physique, lorsque les éléments d’un
vecteur sont de nature différente (représentent des grandeurs dans des unités différentes).
Pour la matrice D ∈ R n*n , on prend souvent une matrice diagonale avec chaque terme comme
étant l’inverse de la valeur maximale que peut prendre l’élément concerné :
1 x1max 0
D= 1 xi max .
0 1 xn max
La norme matricielle
Il existe plusieurs normes matricielles. La norme d’une matrice peut être définie dans
différent sens, elle doit satisfaire les contraintes posées par n’importe quel espace (Kohonen,
1984, p.47).
Les normes matricielles, sont définies de la même façon que les normes vectorielles.
On appelle p-norme d'une matrice A , A ∈ R m*n , la norme :
1/ p
m n
= ∑∑ aij
p
A p .
i =1 j =1
La norme de Frobenius est la norme Euclidienne au sens matricielle, qui n’est pas compatible
avec la norme Euclidienne vectorielle (it is not consistent with the Euclidean vector norm).
Si A est une matrice carrée, A ∈ R n*n , et x un vecteur de n éléments, :
Ax = x .
Propriétés
Si A est une matrice carrée orthogonale, A ∈ R n*n , et x un vecteur de n éléments, x ∈ R n :
Ax = x
( Ax ) ( Ay ) = x
T T
y
Si A ∈ R m*n
, la condition d’orthogonalité se traduit par A T A = I n .
Quelques théorèmes
1. Si A est une matrice orthogonale, son inverse et sa transposée le sont également.
2. Le produit de plusieurs matrices orthogonales est une matrice orthogonale.
3. Le déterminant d'une matrice orthogonale est égal à ±1 .
Comme le système est indéterminé, les vecteurs propres sont obtenus à une constante
multiplicative près, c’est à dire que l’on détermine des directions propres.
Remarques :
det( A − λ i I) = 0 est appelé polynôme caractéristique de A .
λ i I − A est appelé la matrice caractéristique de A .
Deux matrices sont dites semblables si elles ont le même polynôme caractéristique.
Propriétés
Si A est une matrice carrée, A ∈ R n*n , ayant pour valeurs propres λ i , i = 1,..., n :
n
det( A ) = ∏ λ i
i =1
n
trace( A ) = ∑ λ i
i =1
Cette matrice ( P ∈ R n*n ) est appelée la matrice modèle de A . On montre alors que (Christol
et al., 1996, p 141) :
D = P −1AP .
La diagonalisation d'une matrice permet de résoudre de façon élégante des problèmes qui
peuvent sembler complexes au premier abord (Rotella et Borne, 1995).
Intérêt de la diagonalisation
Considérons le système différentiel linéaire suivant, représenté dans une base quelconque :
x = Ax .
Il est constitué de n équations différentielles du premier ordre dépendantes. Effectuons le
changement de base défini par :
x = Py ou y = P −1x .
Le système différentiel devient alors :
y = P −1x = P −1Ax = P −1APy ,
donc en fait : y = Dy ,
On peut représenter la forme quadratique grâce aux notations matricielles. Pour cela,
considérons A une matrice carrée, A ∈ R n*n , et x un vecteur de n éléments, x ∈ R n :
xT = [ x1 ... xn ] , A = aij ,
alors f ( x ) = xT Ax .
19. Définitivité
On dit qu’une matrice A ∈ R n*n , est définie positive, A > 0 , si la forme quadratique qui lui
est associée est définie positive :
A > 0 ⇔ xT Ax > 0 , ∀ x ≠ 0 .
Pour tester la positivité d’une matrice, on peut utiliser le critère de Sylvester qui dit qu’une
matrice est définie positive si tous ses mineurs principaux sont positifs :
A > 0 ssi m i > 0 , ∀i = 1,..., n .
Ce critère n’est plus valable pour la semi-positivité :
A ≥ 0 ssi m i ≥ 0 , ∀i = 1,..., n n’est pas vrai, mais :
A ≥ 0 ssi m i ≥ 0 et m ij ≥ 0 , ∀i = 1,..., n , ∀j = 1,..., n .
Les mêmes raisonnements sont valables pour les cas négatifs.
Cela peut également se vérifier en utilisant les valeurs propres λ i , ∀i = 1,..., n , de la matrice
A :
A > 0 ssi λ i > 0 ,
A ≥ 0 ssi λ i ≥ 0 ,
A < 0 ssi λ i < 0 ,
A ≤ 0 ssi λ i ≤ 0 .
On dit que la famille A est génératrice d'un sous-espace vectoriel F de E si A est contenu
dans F et si tout vecteur de F est une combinaison linéaire de vecteurs de A.
Une famille de vecteurs d'un espace vectoriel E qui est à la fois libre et génératrice de E est
appelé base de E.
On se place dans un repère 3D R1 , défini par une base orthonormée. A partir de ce premier
repère, on définit par rapport à R1 un second repère R2 , également défini par une base
orthonormée.
Le passage d'un repère à un autre fait intervenir deux opérations essentielles : la translation
et la rotation.
Le repère R2 est donc défini par la position de son origine O2 dans le repère R1 (c'est la
translation, définie par un vecteur t ∈ R 3 ) et par l'orientation des vecteurs formant sa base
(c'est la rotation, définie par une matrice A ∈ R 3*3 ) par rapport à ceux qui constituent la
base de R1 .
4
4
P
3
3 P
O2
2 2
O2
Q
1 1
Q
x y
0 0
0 1 2 3 4 5 6 0 1 2 3 4 5 6
O1 O1
Figure 5 : Les points P et Q dans le premier repère Figure 6 : Les points P et Q dans le premier repère
par rapport aux axes x et y. par rapport aux axes y et z.
Connaissant les coordonnées d'un point PR2 = [1 1 1] dans le repère R2 , on veut connaître
T
On peut poser le problème inverse : quelles sont les coordonnées dans R2 d'un point défini
dans R1 ?
Dans R1 définissons le point Q tel que QR1 = [1 1 1] . Les coordonnées de Q dans R2 sont
T
1 0 0
4 2
y
3
z
3
2
5
1 4
3 4
0
2
0
1
2 1
3
4
y
0
5
0 1 2 3 4
x x
4 4
3 3
z z
2 2
1 1
0 0
0 1 2 3 4 0 1 2 3 4
x y
Figure 7 : Un cube dans un espace 3D, le point Q est représenté par un cercle magenta.
Le point S, défini dans R2 par SR2 = [1 1 1] et représenté sur les figures précédentes par
T
un cercle (un des sommets du cube) a pour coordonnées dans R1 SR1 selon la formule :
SR1 = ASR2 + t ,
On voit finalement, que le passage d'un repère à l'autre utilise une multiplication à gauche,
que ce soit pour passer de R1 à R2 , ou inversement de R2 à R1 . La multiplication à cause
peut donc de façon générale être assimilé à un changement de base.
Dans un premier temps, on rappelle un cas particulier, celui où les axes de l’ellipse sont
parallèles aux axes de coordonnées. On généralisera ensuite pour le cas des axes quelconques.
avec ρ a = d / a et ρ b = d /b .
Les coordonnées polaires qui représentent cette ellipse sont alors :
x = ρ a cos(ϑ ) + x0
y = ρ b cos(ϑ ) + y0
avec 0 ≤ ϑ ≤ 2π .
La courbe correspondante est une ellipse si la matrice A est définie positive, c’est à dire si a
et b sont positifs et si det( A ) > 0 , soit ab > c 2 .
Caractériser une ellipse revient à déterminer ses axes principaux qui sont les directions
propres de la matrice A . Les vecteurs propres de A sont définis par :
det( A − λi I) = 0 ,
Ces vecteurs sont définis à une constante près : on ne connaît que leurs directions d1 et d 2 ,
soit :
d1 : y = α1 x avec α1 = ( λ1 − a ) / c
d 2 : y = α 2 x avec α 2 = ( λ2 − a ) / c
Soient v et w les coordonnées d’un point dans les axes définis par les directions d1 et d 2 .
Avec ces coordonnées, l’équation de l’ellipse s’écrit :
λ1v 2 + λ2 w2 = d ,
ou
v2 w2
+ = 1,
ρ12 ρ 22
avec ρ1 = d / λ1 et ρ 2 = d / λ2 .
On peut donc facilement tracer l’ellipse avec les coordonnées {v, w} , puis passer dans les axes
{ x , y} par une matrice de changement de base.
∂ ∂A ∂B
( A + B) = +
∂t ∂t ∂t
∂ ∂A ∂B
( AB) = B+A
∂t ∂t ∂t
∂A n
∂A n −1 ∂A n −2 ∂A
= A +A A + + A n −1
∂t ∂t ∂t ∂t
∂A −1 ∂A −1
= − A −1 A
∂t ∂t
∂A ∂A
= trace( A)
∂t ∂t
∂( AA −1 ) ∂I
= =0
∂t ∂t
∫ xn ∂t
∫ A∂t = ∫ a ∂t .
ij
6. La dérivation chainée
Soit la fonction scalaire composée : f ( x ) = h( g (( x )) , x ∈ R n et f : R n → R .
La règle de dérivation chaînée permet d’écrire :
∂f ∂h ∂g
= .
∂xi ∂g ∂xi
où ε ( x 0 ) sont les termes d’ordres supérieur impliquants les dérivées partielles d’ordre
supérieur, négligeables lorsque ∆x est suffisamment petit.
En notation vectorielle, on obtient :
1
f ( x ) = f ( x 0 ) + ∆xT ∇x f ( x 0 ) + ∆xT ∇ 2x f (x 0 )∆x + ε (x 0 )
2
Avec ∆x = x − x0 et ∆y = y − y0 , on a :
∂f ( x0 , y0 ) ∂f ( x0 , y0 )
f ( x0 + ∆x, y0 + ∆y ) = f ( x0 , y0 ) + ∆x + ∆y
∂x ∂y
∆x 2 ∂ 2 f ( x0 , y0 ) ∂ 2 f ( x0 , y0 ) ∆y 2 ∂ 2 f ( x0 , y0 )
+ + ∆ x ∆ y + + ε ( x0 , y0 )
2 ∂x 2 ∂x∂y 2 ∂y 2
Ayres, F., Jr., 1991. Matrices : cours et problèmes, McGraw Hill, New York.
Christol, G., Pilibossian, P., and Yammine, S., 1996. Algèbre, cours et exercices corrigés,
Ellipses-Edition Marketing, Paris.
Rotella, F., and Borne, P., 1995. Théorie et pratique du calcul matriciel, Editions Technip,
Paris.
Stoer, J., and Bulirsch, R., 1993. Introduction to Numerical Analysis, Springer-Verlag, New
York.
Strang G., 1993. Introduction to Linear Algebra, .Welleley Cambridge Press, Wellesley.
Annexe
Alphabet Grec
Alpha Α α Nu Ν ν
Bêta Β β Xi Ξ ξ
Gamma Γ γ Omicron Ο ο
Delta ∆ δ Pi Π π
Epsilon Ε ε Rhô Ρ ρ
Zêta Ζ ζ Sigma Σ σ
Êta Η η Tau Τ τ
Thêta Θ θ Upsilon Υ υ
Iota Ι ι Phi Φ φ, ϕ
Kappa Κ κ Khi Χ χ
Lambda Λ λ Psi Ψ ψ
Mu Μ µ Oméga Ω ω