Vous êtes sur la page 1sur 11

CHAPITRE 1

ESPACES VECTORIELS ET CALCUL MATRICIEL

1.1 Espaces vectoriels :


1.1.1 Espaces vectoriels :
Une loi interne sur un ensemble E est une application de E × E −→ E . Dans ce cours
elle sera notée (+), appelée l'addition.
Une loi externe du corps R sur un ensemble E est une application R × E −→ E . Dans ce
cours elle sera notée (.), appelée la multiplication extérieure.
Un espace vectoriel sur R est un ensemble E muni d'une loi interne (+) et d'une loi externe
(.) tels que :
1. Associativité : (∀(x, y, z) ∈ E 3 ), x + (y + z) = (x + y) + z.
2. Commutativité : (∀(x, y) ∈ E 2 ), x + y = y + x.
3. Élément neutre, noté OE : (∀x ∈ E), x + OE = OE + x = x.
4. Symétrique : (∀x ∈ E), (∃y ∈ E), x + y = y + x = OE . (y est unique, on écrit
y = −x)
5. (∀x ∈ E), 1.x = x.
6. (∀x ∈ E), (∀(α, β) ∈ R2 ), α.(β.x) = (α.β).x.
7. (∀x ∈ E), (∀(α, β) ∈ R2 ), (α + β).x = α.x + β.x.
8. (∀(x, y) ∈ E 2 ), (∀α ∈ R), α.(x + y) = α.x + α.y.
Comme, on étudiera seulement les espaces vectoriels sur R, on dira seulement espace vectoriel
au lieu d'espace vectoriel sur R. Le choix de l'addition sera naturel, ainsi que celui de la loi
externe.
Exemple 1.1.1
1/ Le premier exemple est l'ensemble R, muni naturellement de (+) (est la loi interne) et (×)
( est la loi externe).

2/ Rn = {(x1 , x2 , ..., xn )/ xi ∈ R, 1 ≤ i ≤ n} est espace vectoriel sur R.

5
Proposition 1.1.1 Soit (E, +, .) un espace vectoriel, alors pour tout (x, y) ∈ E 2 ) et (α, β) ∈
R2 )
1. α.(x − y) = α.x − α.y .
2. (α − β).x = α.x − β.x.
3. (−1).x = −x.
4. (−α).x = α.(−x) = −(α.x).

1.1.2 Sous-espaces vectoriel :


Dénition 1.1.1 Soient E un espace vectoriel et F une partie non vide de E alors F est
un sous-espace vectoriel de E si et seulement si F est un espace vectoriel pour la structure
induite, i.e l'addition est une loi interne sur F et . est une loi externe sur F et (E, +, .) est
un espace vectoriel.
Proposition 1.1.2 (s.e.v.) Un sous-ensemble F de E est un sous-espace vectoriel de E si et
seulement si :
1. 0E ∈ F .
2. ∀(x, y) ∈ F 2 x + y ∈ F .
3. ∀α ∈ R, ∀x ∈ F, α.x ∈ F .
Proposition 1.1.3 Un sous-ensemble F de E est un sous-espace vectoriel de E si et seule-
ment si :
1. 0E ∈ F .
2. ∀α ∈ R, ∀(x, y) ∈ F 2 x + αy ∈ F .
Exemple 1.1.2
1/ E = R3 , F = {(x, y, z) ∈ R3 / x − 2y + z = 0} est un sous espace vectoriel de E , en eet :
1. 0R3 = (0, 0, 0), on a 0 − 2.0 + 0 = 0 alors 0R3 = (0, 0, 0) ∈ F .
2. ∀α ∈ R, ∀(u, v) ∈ F 2 tels que u = (x, y, z) et v = (x0 , y0 , z 0 ). On a u + v = (x +
x0 , y + y 0 , z + z 0 ) et comme u, v ∈ F alors x − 2y + z = 0 et x0 − 2y 0 + z 0 = 0.
Montrons que u + αv ∈ F :
x + αx0 − 2(y + αy 0 ) + z + αz 0 = x − 2y + z + α(x0 − 2y 0 + z 0 ) = 0 + α.0 = 0
donc u + αv ∈ F .
2/ E = R3 , F = {(x, y, z) ∈ R3 / x + 3y − 2z = 1} n'est pas un sous espace vectoriel de E ,
car 0R3 = (0, 0, 0) ∈/ F

1.1.3 Bases d'un espace vectoriel :


Dénition 1.1.2 On dit que les vecteurs v1 , v2 , ..., vn de E sont linéairement indépendants
si ils ne forment pas de combinaison linéaire nulle, c.-à.-d. :
Si α1 v1 + α2 v2 + ... + αn vn = 0 alors α1 = α2 = ... = αn = 0.
Dans le cas contraire, ils sont dit linéairement dépendants.

6
Dénition 1.1.3
1 {v1 , v2 , ..., vn } est une famille libre si v1 , v2 , ..., vn sont linéairement indépendants.
2 {v1 , v2 , ..., vn } est une famille liée si v1 , v2 , ..., vn sont linéairement dépendants.
Exemple 1.1.3 E = R3 , {v1 , v2 , v3 } avec v1 = (−1, 0, 2), v2 = (2, 1, −1) et v3 = (1, 1, 1).
La famille {v1 , v2 , v3 } est liée, en eet :

Si α1 v1 + α2 v2 + α3 v3 = 0 alors α1 = 1, α2 = 1 et α3 = −1.
Dénition 1.1.4
1 On dit que G, famille non vide de E , est une famille génératrice de E si et seulement si
E = V ect(G), c'est-à-dire si tout élément de E est combinaison linéaire (nie) d'éléments de
G.

Exemple 1.1.4
R2 = {(x, y) ∈ R2 / x ∈ R, y ∈ R}
On a
v = (x, y) = (x, 0) + (0, y) = x(1, 0) + y(0, 1)
Alors {(1, 0), (0, 1)} est une famille génératrice de R2
Dénition 1.1.5 On appelle base de E toute famille libre et génératrice de E .
Exemple 1.1.5 E = R3 , B = {e1 , e2 , e3 } avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1).
B est une base de R3 , en eet :
On a v = (x, y, z) = (x, 0, 0) + (0, y, 0) + (0, 0, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1) alors B
est une famille génératrice de R3 , de plus B est libre.
Dénition 1.1.6 On appelle dimension d'un espace vectoriel E , le nombre d'éléments d'une
quelconque de ses bases. On note la dimension E par dim(E).
Exemple 1.1.6
1 E = R3 , B = {e1 , e2 , e3 } avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1).
B est une base de R3 alors dim(R3 ) = 3.
21
dim(R2 ) = 2.
Remarque 1.1.1
1/ Si F est un s.e.v. de E alors dim(F ) ≤ dim(E).
2/ Si F est un s.e.v. de E et si dim(F ) = dim(E) alors F = E .
Proposition 1.1.4 Soit E un e. v. de dimension n, alors :
1 Tout partie libre de n vecteurs est une base de E .
2 Tout partie génératrice de n vecteurs est une base de E .

7
1.2 Applications linéaires :
1.2.1 Applications linéaires :
Il est util de défnir l'application qui preserve la structure d'espace vectoriel.
Dénition 1.2.1 Soient E et F deux espaces vectoriels et f : E −→ F une application. On
dit que f est une application linéaire si et seulement si pour tout (x, y) ∈ E 2 et α ∈ R :
f (x + y) = f (x) + f (y) et f (αx) = αf (x)
On note L(E, F ) l'ensemble des applications linéaires de E dans F , appelé l'ensemble des
homomorphismes et si E = F on le note seulement L(E) et est appelé l'ensemble des endo-
morphismes.
Remarque 1.2.1
1/ L'application x −→ 0F est l'application linéaire nulle.
2/ Si f : E −→ F est linéaire alors f (0E ) = 0F , f (−x) = −f (x) et f (αx + βy) = αf (x) +
βf (y) pour tout (x, y) ∈ E 2 et (α, β) ∈ R2 .
3/ On défnit les applications linéaires f + g et λf , pour (f, g) ∈ L2 (E, F ) par :
∀x ∈ E (f + g)(x) = f (x) + g(x) et (λf )(x) = λf (x).
4/ (L(E, F ), +, .) est un espace vectoriel.
Exemple 1.2.1 Soit l'application f : R3 −→ R2 dénit par :
f (x, y, z) = (x + 2y − z, y − z),

alors f est linéaire.

1.3 Matrices :
1.3.1 Matrices :
Pour dénir une matrice, on a besoin de deux entiers n et m, où n est le nombre de lignes
et m le nombre de colonnes. Sur chaque ligne, on a m nombres réels (ou complexes). Ainsi
une matrice M à n lignes et m colonnes s'écrit :
 
a11 ... a1m
 a21 ... a2m 
 
 . .... . 
A=  
 . .... .  
 . .... . 
an1 .... anm

Par exemple la première ligne est (a11 ...a12m ) et le nombre aij est sur la iime -ligne et la
j ime -colonne.
On dit aussi que la matrice A est de type (n, m).
L'ensemble de ces matrices sera noté Mn,m (R) et si n = m, on écrit Mn,n (R) = Mn (R).
Matrices particulières :

8
 1 Matrice ligne : (a1 ...am )
 2 Matrice colonne :  
a1

 a1 


 . 


 . 

 . 
an
 3 Matrice diagonale A ∈ Mn (R) telle que aij = 0 pour i 6= j . i.e. :
 
a1 0 ... ... 0

 0 a2 0 ... 0 

 . 
A= 

 . 0 ...ai 0 0 

 . 
0 0 ... 0 an

 4 Matrice triangulaire supérieure A ∈ Mn (R) telle que aij = 0 pour i > j . i.e. :
 
a11 a12 ... ... a1n

 0 a22 a23 ... a2n 
 . 
A= 

 . 0 ...aij ai,j+1 ai,n 

 . 
0 0 ... 0 an

 5 Matrice nulle aij = 0 pour i ∈ {1, 2, ..., n} et j ∈ {1, 2, ..., n}.


 6 Matrice identité, c'est la matrice diagonale telle que a1 = a2 = a3 = ... = an = 1.

1.3.2 Opérations sur les matrices :


Dénition 1.3.1 Soient A = (ai,j ) et B = (bi,j ) deux matrices de type (n, p), c'est-à-dire
deux matrices à n lignes et p colonnes. Alors
A + B = (ai,j + bi,j ).

A+B est encore une matrice de type (n, p). Les matrices s'additionnent "termes à termes".
On note −A la matrice opposée de A soit −A = (−ai,j ) et on dénit A − B par A + (−B).
Proposition 1.3.1
1/ On ne peut additionner des matrices que si elles sont de même type (même nombre de
lignes et de colonnes).
2/ A + B = B + A
3/ (A + B) + C = A + (B + C)
4/ A + O = A où 0 est la matrice nulle, la matrice de même type que A ne comportant que
des zéros.

9
5/ A + (−A) = A − A = 0
   
−1 2 1 0
Exemple 1.3.1 Si A= 0 3  et B =  2 0 , alors
4 −2 3 1
   
−1 + 1 2 + 0 0 2
A+B = 0+2 3+0 = 2 3 
4 + 3 −2 + 1 7 −1

1.3.3 Multiplication d'une matrice par un réel ou un complexe :


Dénition 1.3.2 Soient A = (ai,j ) une matrice de type (n, p) et λ ∈ R (ou C). On pose :
λA = (λai,j ).

La matrice λA est donc obtenue en multipliant tous les coecients de la matrice A par λ et
elle est du même type que A.
Remarque 1.3.1 L'écriture Aλ n'existe pas
Proposition 1.3.2
1/ On ne peut additionner des matrices que si elles sont de même type (même nombre de
lignes et de colonnes).
2/ λ(A + B) = λA + λB
3/ (λ + µ)A = λA + µA
4/ 0A = 0n,p où 0n,p est la matrice nulle.
5/ A + (−A) = A − A = 0
 
1 3 −1 5
 2 −1 4 1 
Exemple 1.3.2 Si  1 2 −2 7 ,
A=  alors
5 −2 3 −1
   
2×1 2×3 2 × (−1) 2 × 5 2 6 −2 10
 2×2 −1 2 × 4 2 × 1   4 −2 8 2 
2A = 
 2×1
= 
2×2 2 × (−2) 2 × 7   2 4 −4 14 
2 × 5 2 × (−2) 2×3 −1 10 −4 6 −2

1.3.4 Produit de deux matrices :


Dénition 1.3.3 Soit A = (ai,j ) une matrice de type (n, m) et B = (bi,j ) une matrice de
type (m, p), alors le produit C = A × B = AB est une matrice de type (n, p) dénie par :
C = (ci,j ), avec X
ci,j = ai,k bk,j .
1≤k≤m

10
Proposition 1.3.3
1/ A × (B × C) = (A × B) × C .
2/ A × (B + C) = A × B + A × C
3/ (B + C) × A = B × A + C × A
4/ A × (λB) = (λA) × B = λ(A × B).
5/ si A est une matrice carrée (n, n) et si I est une matrice carrée (n, n) telle que tous les
coecients diagonaux sont égaux à 1 et tous les autres coecients sont nuls, alors A × I =
I × A = A.

Remarque 1.3.2 Si les deux produits A × B et B × A existent, en général A × B 6= B × A


 
  4 −2
Exemple 1.3.3 Soient A = 11 23 −1 0
et B =  2 3  alors
−1 5
 
  4 −2
1 2 −1
A×B = ×  2 3 
1 3 0
−1 5
 
1 × 4 + 2 × 2 + (−1) × (−1) 1 × (−2) + 2 × 3 + (−1) × 5
=
1 × 4 + 3 × 2 + 0 × (−1) 1 × (−2) + 3 × 3 + 0 × 5
 
9 −1
=
10 7
et on a :
 
4 −2  
1 2 −1
B×A=  2 3  ×
1 3 0
−1 5
 
4×1−2×1 4×2−2×3 4 × (−1) − 2 × 0
= 2 × 1 + 3 × 1 2×2+3×3 2 × (−1) + 3 × 0 
(−1) × 1 + 5 × 1 (−1) × 2 + 5 × 3 (−1) × (−1) + 5 × 0
 
2 2 −4
=  5 13 −2 
4 13 1
Donc
A × B 6= B × A

1.3.5 Transposée d'une matrice :


Dénition 1.3.4 Soit A = (ai,j ) une matrice de type (n, m), sa transposée At est une matrice
de type (m, n) dénie par : A = (aj,i ), avec j ∈ {1, ..., n} et i ∈ {1, ..., m}.
Exemple 1.3.4  
2 2 −4
A =  5 13 −2 
4 13 1

11
alors  
2 5 4
At =  2 13 13 
−4 −2 1

Remarque 1.3.3
1 Une matrice A est dite symétrique si At = A.
2 Une matrice A est dite anti-symétrique si At = −A
Proposition 1.3.4 Soit A = (ai,j ) une matrice de type (n, m) alors :
1/ At est une matrice de tyne (m, n). Il sut d'échanger les lignes de la matrice A et dans le
même ordre en colonnes de la matrice At ou les colonnes en lignes.
2/ (At )t = A
3/ (A + B)t = At + B t
4/ (λA)t = λAt avec λ ∈ R.
5/ (AB)t = B t At avec B ∈ M(m,p) (R).

1.3.6 Déterminant d'une matrice carrée


Cette notion se dénit par récurrence. Si A = (a11 ) alors on associe à A le nombre

det(A) = a11 .

On associe aussi à A ∈ M2 (R), le nombre :

a11 a12
det(A) = = a11 a22 − a21 a12
a21 a22
Pour la récurrence, on dénit la matrice Aij , c'est la matrice associée à A où on enleve de A
la ligne i et la colonne j . Ainsi la matrice Aij est une matrice carrée d'ordre n − 1.
Maintenant, on dévellope par rapport à la première ligne. Par exemple, si n = 3 on a :
 
a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33
alors :
a11 a12 a13
det(A) = a21 a22 a23
a31 a32 a33
a22 a23 a12 a13 a12 a13
= a11 − a21 + a31 .
a32 a33 a32 a33 a22 a23

Pour n ≥ 3, on associe à A ∈ Mn (R) le déterminant, dénis par récurrence par :


n
X
det(A) = aij det(Aij)
j=1

12
 
1 2 3
Exemple 1.3.5 Soit A= 0 1 0  alors
1 1 1

1 2 3
det(A) = 0 1 0
1 1 1
1 0 0 0 0 1
=1 −2 +3
1 1 1 1 1 1
= −2

Si on développe par rapport à la deuxième ligne, on a toujours :


1 2 3
det(A) = 0 1 0
1 1 1
1 3
=1
1 1
= −2

1.3.7 Inversion d'une matrice


Dénition 1.3.5 Une matrice carrée A d'ordre n est dite inversible on régulière s'il existe
une matrice carrée B d'ordre n tels que :
A × B = B × A = I.

B est l'inverse de A et notée A−1 .


Remarque 1.3.4
1 Si une telle matrice B n'existe pas, A est dite non inversible ou singulière.
2 Si A est inversible alors A × A−1 = I .
Proposition 1.3.5 A est inversible ⇔ det(A) 6= 0

Calcul de l'inversion d'une matrice


Soit A une matrice carrée d'ordre n. On a :
 
c11 ... c1n
 c21 ... c2n 
 
 . .... . 
Com(A) =   .

 .... . 

 . .... . 
cn1 .... cnn

Com(A) est une matrice des cofacteurs de A.

13
Dénition 1.3.6 Soit A une matrice carrée d'ordre n est inversible on régulière alors :
1
A−1 = Com(A)t .
det(A)
 
1 1 1
Exemple 1.3.6 Soit A= 2 1 1  alors
2 2 1

1 1 1
det(A) = 2 1 1
2 2 1
1 1 1 1 1 1
=1 −2 +2
2 1 2 1 1 1
=1

alors A est une matrice inversible. De plus,


 
1 1 2 1 2 1
 + 2 1 − +
 2 1 2 2 

 1 1 1 1 1 1 
 − 2 1
Com(A) =  + − 
 2 1 2 2 

 1 1 1 1 1 1 
+ − +
1 1 2 1 2 1
 
−1 0 2
=  1 −1 0 
0 1 −1
 
−1 1 0
alors Com(A)t =  0 −1 1  .
2 0 −1
Donc
1
A−1 = Com(A)t
det(A)
 
−1 1 0
=  0 −1 1  .
2 0 −1
 
−4 −10
Exemple 1.3.7 Soit B = 3 5
alors

−4 −10
det(B) =
3 5
= −4 × 5 − 3 × (−10)
= 10

14
alors B est une matrice inversible. De plus,
 
5 −3
Com(B) =
10 −4
 
5 10
alors Com(B)t = . Donc
−3 −4

1
B −1 = Com(B)t
det(B)
 
1 5 10
=
10 −3 −4

On verie bien que BB −1 = I

15

Vous aimerez peut-être aussi