Vous êtes sur la page 1sur 31

ALGEBRE LINEAIRE FBA L2

2022 - 2023

Dr BAMBA Klanan Bertrand


Table des matières

1 MATRICES 3
1.1 Généralités sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . 4
1.1.3 Déterminant de matrices carrées . . . . . . . . . . . . . . . . . . 6
1.1.4 Inversion d’une matrice carrée . . . . . . . . . . . . . . . . . . . 12

2 SYSTEMES D’EQUATIONS LINEAIRES 14


2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 Résolution de système de Cramer . . . . . . . . . . . . . . . . . 16
2.1.2 Inversion matricielle . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Résolution d’un système de Cramer par des déterminants . . . . . . . . . 17
2.2.1 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 Résolution de systèmes singuliers . . . . . . . . . . . . . . . . . 20

3 NOTION D’ESPACE VECTORIEL 21


3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1.1 Base et dimension d’un espace vectoriel . . . . . . . . . . . . . . 23
3.1.2 Matrice d’un système de vecteurs . . . . . . . . . . . . . . . . . 24
3.2 Exercices d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . 24

4 APPLICATIONS LINÉAIRES 26
4.1 Généralités sur les applications linéaires . . . . . . . . . . . . . . . . . . 26
4.1.1 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . 27
4.1.2 Cas des endomorphismes de Rn et Cn (n = 2 ou 3) . . . . . . . . 27
4.1.3 Une base dans laquelle la matrice est simple ? . . . . . . . . . . . 28
4.2 Théorèmes de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . 28
4.2.1 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2.2 Partie A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2.3 Partie B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

1
ALGEBRE LINEAIRE

4.2.4 Un système différentiel . . . . . . . . . . . . . . . . . . . . . . . 29

UTA 2 Dr BAMBA K. Bertrand


Chapitre 1

MATRICES

Dans ce cours K = R ou C.

1.1 Généralités sur les matrices


1.1.1 Définitions
Définition 1.1.1. p et q sont deux entiers tels que p ≥ 1, q ≥ 1.
• Une matrice p × q ou de type (p, q) est, par définition, un tableau : de scalaires
(ou nombres) appartenant à K , rangés horizontalement ou verticalement.
• Une rangée horizontale est appelée ligne et une rangée verticale est appelée co-
lonne.
• Les rangées figurent dans deux parenthèses ou deux crochets et la matrice est
désignée par une lettre majuscule.
• Le nombre de rangées horizontales est le nombre de lignes p et le nombre de
rangées verticales est le nombre de colonnes q.
• Les nombres dans le tableau sont appelés les termes, coefficients ou composantes
de la matrice
• Le coefficient de la matrice A qui se trouve à l’intersection de la i-ème ligne et de
la j-ème colonne est noté aij .
◦ i représente l’indice de ligne.
◦ j représente l’indice de colonne.
• Soit A une matrice de type (p, q).
— On a    
a11 a12 · · · a1q a11 a12 · · · a1q
 a21 a22 · · · a2q   a21 a22 · · · a2q 
   
A=  .. = .
..   .. 
 . .   .. . 

ap1 ap2 · · · apq ap1 ap2 · · · apq

3
MATRICES

— On emploie aussi la notation

A = (aij ) 1≤ i ≤ p .
1≤ j ≤ q

a14
a24
Ceci est la 2ème ligne : a21 a22 · · · a2q ; la 4ième colonne est : . .
..
ap4
• L’ensemble des matrices à n lignes et p colonnes à coefficients dans R est noté
Mn,p (R). Les éléments de Mn,p (R) sont appelés matrices réelles.

1.1.2 Opérations sur les matrices


Egalité de deux matrices

Définition 1.1.2. Deux matrices A = (aij ) 1≤ i ≤ p et B = (bij ) 1≤ i ≤ p , de type (p, q)


1≤ j ≤ q 1≤ j ≤ q
sont égales si leurs coefficients aij et bij sont égaux, quels que soient i = 1, 2, ..., p et
j = 1, 2, ..., q.

Contre-exemple
 1.1.1.   
0 1 −8 0 1 −8
Soit A =  −1 0 0  et B =  −1 0 0 . On a A 6= B car
   

8 −1 0 8 0 0
a32 = −1 6= 0 = b32 .

Addition de deux matrices

Définition 1.1.3. On définit la matrice C = A + B, de type (p, q) , somme des deux


matrices de type (p, q), par ses coefficients : cij = aij + bij , 1 ≤ i ≤ p, 1 ≤ j ≤ q.

Multiplication par un scalaire

Soit λ ∈ R, la matrice λA est par définition, la matrice de coefficient λaij , où


A = (aij ).
C’est le produit de la matrice A ∈ Mpq (R) par le scalaire λ notée λA.

Transposée d’une matrice

Définition 1.1.4. Soit A une (m, n) matrice. La transposée de A est la matrice notée t A,
obtenue en transformant les lignes de A en des colonnes de même rang.
C’est à dire :
— La première ligne de A est la première colonne de t A

UTA 4 Dr BAMBA K. Bertrand


MATRICES

— La deuxième ligne de A est la deuxième colonne de t A


— Et ainsi de suite· · ·

Produit de deux matrices

Le produit de matrices est sous condition :

A × B est possible si le nombre de colonnes de A


est égal au nombre de lignes de B.

Soient A = (aij )1≤ i ≤ m ∈ Mm,n (K), B = (bij ) 1≤ i ≤ n ∈ Mn,p (K) ,


1≤ j ≤ n 1≤ j ≤ p
n
X
on pose : AB = C = (cij )1≤ i ≤ m ∈ Mm,p (K) , où cij = aik bkj
1≤ j ≤ p
k=1
est le produit de la matrice A par B. En fait pour obtenir le terme cij de la matrice
A × B = AB, on multiplie les composantes de la ième ligne de A par celles de la j ème
colonne de B dans l’ordre et on fait la somme des différents produits.
On a symboliquement du point de vu des types de matrices
(m, n) (n, p) = (m, p) .

Remarque 1.1.1. On peut écrire le coefficient de façon plus développée, à savoir :

cij = ai1 b1j + ai2 b2j + · · · + aik bkj + · · · + aip bpj .

Il est commode de disposer les calculs de la façon suivante.


 
×
 × 
 ←B
 

 × 
×
   
|
   | 
A→  ← AB
   
 
× × × × − − − cij 

Avec cette disposition appelée disposition de MARTIN , on considère d’abord la ligne


de la matrice A située à gauche du coefficient que l’on veut calculer (ligne représentée
par des × dans A) et aussi la colonne de la matrice B située au-dessus du coefficient
que l’on veut calculer (colonne représentée par des × dans B). On calcule le produit du
premier coefficient de la ligne par le premier coefficient de la colonne (ai1 × b1j ), que
l’on ajoute au produit du deuxième coefficient de la ligne par le deuxième coefficient de
la colonne (ai2 × b2j ), que l’on ajoute au produit du troisième. . .

UTA 5 Dr BAMBA K. Bertrand


MATRICES

Exemple 1.1.1.
 
! 1 2
1 2 3
A= B = −1 1
 
2 3 4
1 1
On dispose d’abord le produit correctement (à gauche) : la matrice obtenue est de
taille 2 × 2. Puis on calcule chacun des coefficients, en commençant par le premier coef-
ficient c11 = 1 × 1 + 2 × (−1) + 3 × 1 = 2 (au milieu), puis les autres (à droite).

    
1 2 1 2 1 2
−1 1 −1 1 −1 1
     

! 1 1! ! 1 1! ! 1 1!
1 2 3 c11 c12 1 2 3 2 c12 1 2 3 2 7
2 3 4 c21 c22 2 3 4 c21 c22 2 3 4 3 11

Exercice 1.1.1. On considère les matrices à coefficients réels


 
! ! 1 1 2
2 1 1 2
A= B= C= 1 0 1 
 
2 1 −2 −4
1 −1 0
 
−1 −1 1 !
−1 −1 1
D= 1 0 1  et E =
 
1 0 1
0 1 0
Si elles ont un sens, calculer AB, BA, CD, DC, AE, CE.

1.1.3 Déterminant de matrices carrées


Déterminant d’une matrice carrée d’ordre 2
" #
a b
Définition 1.1.5. Soit A = . On appelle déterminant de A le nombre
c d
a b
ad − bc. On note det A ou .
c d
" #
−1 3 −1 3
Exemple 1.1.2. A = ; det A = = 2 × (−1) − 3 × 4 = −14
4 2 4 2

Déterminant d’une matrice carrée d’ordre 3


 
a11 a12 a13
Soit A =  a21 a22 a23 . On appelle déterminant de A le nombre
 

a31 a32 a33

UTA 6 Dr BAMBA K. Bertrand


MATRICES

a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .
a11 a12 a13
On note det A ou a21 a22 a23 .
a31 a32 a33

Calcul d’un déterminant d’ordre 3 par la méthode de Sarrus

On complète par les deux premières colonnes la suite de la troisième colonne (ou par
les deux premières lignes la suite de la troisième ligne) et on fait les produits 3 à 3 parallè-
lement à la diagonale principale et les produits 3 à 3 parallèlement à la contre-diagonale
principale ensuite, on somme en comptant les produits parallèles à la diagonale princi-
pale positivement et ceux de la contre-diagonale principale négativement.

a11 a12 a13 a11 a12


det A = a21 a22 a23 a21 a22
a31 a32 a33 a31 a32
= (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 ) − (a31 a22 a13 + a32 a23 a11 + a33 a21 a12 )

Ou

a11 a12 a13


det A = a21 a22 a23
a31 a32 a33
a11 a12 a13
a21 a22 a23
= (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 ) − (a31 a22 a13 + a32 a23 a11 + a33 a21 a12 )

Remarque 1.1.2. : La méthode de Sarrus ne s’applique qu’au déterminant d’ ordre 3

Calcul du déterminant par le développement suivant une ligne ou une colonne.

Définition 1.1.6. Soit A = (aij )1≤ i, j ≤n . Pour l’élément aij , Xij le déterminant obtenu
en éliminant la ligne et la colonne de aij est son mineur ; le nombre Cij = (−1)i+j Xij
est son cofacteur.

Remarque 1.1.3. Pour tout aij élément de A matrice carrée, si (i + j) est paire Xij et
Cij sont égaux sinon ils sont opposés l’un à l’autre.
 
a11 a12 a13
Exemple 1.1.3. Soit A =  a21 a22 a23 
 

a31 a32 a33


Quand on élimine la ligne et la colonne de a11 , on obtient X11 son mineur

UTA 7 Dr BAMBA K. Bertrand


MATRICES

a22 a23
qui est : et son cofacteur est :
a32 a33
a22 a23 a22 a23
C11 = (−1)1+1 × = = X11 .
a32 a33 a32 a33
quand on élimine la ligne et la colonne de a12 , on obtient X12 son mineur
a21 a23
qui est : et son cofacteur est :
a31 a33
a21 a23 a21 a23
C12 = (−1)1+2 × =− = −X12
a31 a33 a31 a33
quand on élimine la ligne et la colonne de a13 , on obtient X13 son mineur
a21 a22
qui est : et son cofacteur est :
a31 a32
a21 a22 a21 a22
C13 = (−1)1+3 × = = X13 .
a31 a32 a31 a32

Methode

Developpement suivant la 1ère ligne pour calculer det A ;


on a : det A = a11 × C11 + a12 × C12 + a13 × C13 .
Ainsi :
a22 a23 a21 a23
det A = a11 × (−1)1+1 × + a12 × (−1)1+2 ×
a32 a33 a31 a33
a21 a22
+a13 × (−1)1+3 ×
a31 a32
= a11 (a22 a33 − a32 a23 ) − a12 (a21 a33 − a31 a23 )
+a13 (a21 a32 − a31 a22 )
= (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 )
− (a31 a22 a13 + a32 a23 a11 + a33 a21 a12 ) .
det A s’obtient aussi par le développement
  suivant une colonne, développons det A
a12
ième
suivant la 2 colonne de A qui est :  a22  , on a :
 

a32
a21 a23 a11 a13
det A = a12 × (−1)1+2 × + a22 × (−1)2+2 ×
a31 a33 a31 a33
a11 a13
+a32 × (−1)3+2 ×
a21 a23
= (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 )
− (a31 a22 a13 + a32 a23 a11 + a33 a21 a12 )
det A = a12 × C12 + a22 × C22 + a32 × C32 .

UTA 8 Dr BAMBA K. Bertrand


MATRICES

Exemples pratiques
 
−1 −2 3
Exemple 1.1.4. A =  3 0 1 ,
 

−1 4 5
−1 −2 3
det A = 3 0 1
−1 4 5
Développons suivant la 2ème ligne.

−2 3 −1 −2
det A = 3 × (−1)1+2 × + 1 × (−1)2+3 ×
4 5 −1 4
= −3 (−2 × 5 − 4 × 3) − 1 × (−1 × 4 − (−1) × (−2))
= −3 (−22) − (−6) = 72.

En développant det A suivant la 1ère ligne on a :

0 1 3 1
det A = (−1) × (−1)1+1 × + (−2) × (−1)1+2 ×
4 5 −1 5
3 0
+3 × (−1)1+3 ×
−1 4
= 72.

C’est plus long à calculer.


 
0 0 −5
Exemple 1.1.5. B =  −4 −1 2  .
 

2 −2 0
Développons det B suivant la 1ère ligne :
0 0 −5
−4 −1
det B = −4 −1 2 = (−5) × (−1)1+3 ×
2 −2
2 −2 0
= −5 × (−4 × (−2) − (−1) × 2) = −50.
Développons det B suivant la 1ère colonne

UTA 9 Dr BAMBA K. Bertrand


MATRICES

0 0 −5
det B = −4 −1 2
2 −2 0
0 −5 0 −5
= (−4) × (−1)1+2 × + 2 × (−1)1+3 ×
−2 0 −1 2
= − (−4) × (0 × 0 − (−2) × (−5)) + 2 (0 × 2 − (−1) × (−5))
= −40 − 10
= −50

Le calcul de det B avec le développement suivant la 2ième ligne

0 0 −5
det B = −4 −1 2
2 −2 0
0 −5 0 −5
= (−4) × (−1)1+2 × + (−1) × (−1)2+2 ×
−2 0 2 0
0 0
+2 × (−1)2+3 ×
2 −2
= (−4) (10) − (10) + 0
= −50

C’est plus long à effectuer que les précédents.

Remarque 1.1.4. (i) Quand l’on a choisi une ligne ou une colonne suivant laquelle
le calcul du déterminant d’une matrice sera développé,le déterminant est égal à
la somme des produits de chaque élément de ladite ligne ou colonne par son
cofacteur.
(ii) En choisissant une colonne ou une ligne où il y a plus de zéros , on a moins de
termes dans le développé.
(iii) Par cette méthode du développement suivant une ligne ou une colonne, on constate
que dans le déveppé l’ordre de la matrice dont on calcule le déterminant s’abaisse.

Calcul du déterminant d’une matrice carrée d’ordre n supérieur ou égal à 3

On se ramène à des calculs de déterminants d’ordre inférieur à n en dé veloppons


suivant une ligne ou une colonne.

UTA 10 Dr BAMBA K. Bertrand


MATRICES

 
−1 0 2 0
 2 3 −1 4 
Exemple 1.1.6. A =  .
 
 −3 2 −1 0 
4 5 −1 0
Développons suivant la 4ème colonne :

−1 0 2 0
−1 0 2
2 3 −1 4 2+4
det A = = 4 × (−1) × −3 2 −1
−3 2 −1 0
4 5 −1
4 5 −1 0
" #
−1 2 −1 2
= 4 2× −5×
4 −1 −3 −1
= 4 [2 (1 − 8) − 5 (1 + 6)]
= 4 (−14 − 35)
= 4 (−49)
= −196
Théorème 1.1.1. Soit A = (aij )1≤ i, j ≤ n .
Déterminant de A développé par rapport à la i-ième ligne :
n
X
det (A) = ai1 Ci1 + ai2 Ci2 + ... + ain Cin = aik Cik .
k=1

Déterminant de A développé par rapport à la j-ième colonne :


n
X
det (A) = a1j C1j + a2j C2j + ... + anj Cnj = akj Ckj .
k=1

Remarque 1.1.5. Pour développer suivant les lignes ou les colonnes, il vaut mieux choisir
celles qui renferment le plus de zéros pour réduire le nombre de calculs.
Remarque 1.1.6. Il est plus intéressant de faire des manipulations (légitimes) qui font
apparaître des zéros dans le déterminant afin d’en faciliter le calcul(voir supra).
Propriété 1.1.1. Le déterminant d’une matrice dont une ligne ou une colonne est for-
mée de zéros est un déterminant nul. Le déterminant d’une matrice dont une ligne (resp.
une colonne) est une combinaison des autres lignes (resp. des autres colonnes) est un
déterminant nul.Aussi si deux lignes(resp.deux colonnes) sont proportionnelles dans un
déterminant, le déterminant est nul.
−1 −2 3
Exemple 1.1.7. det A = 3 6 1 = 0, car la 2ème colonne est égale à deux fois
−1 −2 5
la 1ère colonne.

UTA 11 Dr BAMBA K. Bertrand


MATRICES

Exemple 1.1.8.

−1 −2 3 −1 −2 3
det A = 3 0 1 = 72, mais −3 0 11 = −72 = − det A
−3 0 11 3 0 1
ième ième
car j’ai permuté la 2 et la 3 lignes.

1.1.4 Inversion d’une matrice carrée


Définition 1.1.7. A ∈ Mn (K) est dite inversible s’il existe B ∈ Mn (K) telle que :
AB = BA = In . B est appelée l’inverse de A et se note B = A−1 . (B et A sont des
matrices carrées de même ordre).
" # " #
1 −2 0 21
Exemple 1.1.9. Soient A = et B = on a :
2 0 − 12 41
" #
1 0
AB = BA = I2 = .
0 1

Ainsi A est inversible d’inverse B et inversemment ou A et B sont inverses l’une de l’autre.

Proposition 1.1.1. Le produit de matrices inversibles est inversible.


   
1 0 1 3 −2 −1
Exercice 1.1.2. Soit P =  0 1 1  et Q =  −1 2 −1 
   

−1 −2 1 1 2 1
1 Calculer P Q et QP .
2 En déduire que P est inversible et calculer P −1 .

Inversion d’une matrice par sa comatrice

Définition 1.1.8. Soit A = (aij )1≤ i, j ≤ n . On appelle cofacteur de l’élément aij le


nombre
Cij = (−1)i+j Xij
où Xij est le déterminant obtenu en éliminant la ième ligne et la j ème colonne de A.
 cofacteurs de A est la matrice notée
La matrice des
com (A) = (−1)i+j Xij = (Cij )1≤ i, j ≤ n . Le determinant extrait Xij est
1≤ i, j ≤ n
appelé le mineur de aij .
 
1 3 −2
Exemple 1.1.10 (Exemple pratique). A =  0 −1 3  . Notons A = (aij )1≤ i, j ≤ 3 .
 

−1 −5 6

UTA 12 Dr BAMBA K. Bertrand


MATRICES

−1 3 −1 3
Le cofacteur de a11 = 1 est C11 = (−1)1+1 × = 9, on a X11 =
−5 6 −5 6
1 −2
Le cofacteur de a32 = −5 est C32 = (−1)3+2 × = −3, on a
0 3
1 −2
X32 = . Ainsi de suite.
0 3
 
9 −3 −1
La comatrice de A est donc comA =  −8 4 2 .
 

7 −3 −1

Théorème 1.1.2.
1 1
Si A est une matrice inversible alors A−1 = × com (t A) = × (t com (A))
det A det A
où (t A) désigne la transposée de A, com (t A) désigne la comatrice de la transposée
de A et (t com (A)) désigne la transposée de la comatrice de A.

Définition 1.1.9. Pour tout A ∈ Mn (K), la matrice (t comA) = com (t A) s’appelle la


matrice adjointe de A.

Inversion d’une matrice par un polynôme annulateur


 
1 0 3
On donne la matrice A =  0 3 1 
 

3 1 0
1 Calculer A2 puis A3
2 Calculer A3 − 4A2 − 7A + 28I puis en déduire que A est inversible.
3 Calculer à l’aide des questions précédentes A−1 l’inverse de A.

UTA 13 Dr BAMBA K. Bertrand


Chapitre 2

SYSTEMES D’EQUATIONS
LINEAIRES

2.1 Généralités
Définition 2.1.1. Soient n, m ≥ 1. On appelle système de m équations à n inconnues tout
système (S) de
 la forme :

 a11 x1 + a12 x2 + ... + a1n xn = b1 (E1 )

 a21 x1 + a22 x2 + ... + a2n xn

= b2 (E2 )
(S) ⇐⇒ . .. .. ,

 .. . .


 a x + a x + ... + a x = b (E )
m1 1 m2 2 mn n m m
où aij , bi sont des scalaires donnés ; x1 , x2 , ..., xn sont des inconnues et
(Ei ) la i-ième équation de (S) ; ∀1 ≤ i ≤ m.
La matrice A = (aij )1≤ i ≤ m est la matrice associée à (S)(dite aussi la matrice de
1≤ j ≤ n
(S)).
Il est à noter que la j-ième colonne de A est composée des coéfficients de
l’inconnue xj dans les différentes équations du système de la première é quation(E1 )
à la dernière équation(Em ) ; ∀1 ≤ j ≤ n.
Les (bi )1≤ i ≤ m sont les seconds membres de (S) , et (S) est dit homogène si bi = 0
∀1 ≤ i ≤ m.

Ecriture matricielle de (S).


   
x1 b1
 .   . 
Soit X =  ..  ; B =  .. . Alors (S) ⇐⇒ AX = B.
xn bm

Exemple 2.1.1. Considérons le système linéaire

14
Systèmes d’équations linéaires



 x1 + 7x3 = −1
(S) ⇐⇒ 2x1 − x2 + 5x3 = −5

−x1 − 3x2 − 9x3 = 7

Sa matriceassociée est 
1 0 7
A =  2 −1 5  ;
 

−1 −3 −9
   
x1 −1
X =  x2  ; B =  −5 . Alors (S) ⇐⇒ AX = B
   

x3 7

Exemple 2.1.2. Considérons le système linéaire homogène




 x1 + 7x3 = 0
(S) ⇐⇒ 2x1 − x2 + 5x3 = 0

−x1 − 3x2 − 9x3 = 0

Sa matriceassociée est 
1 0 7
A =  2 −1 5  ;
 

−1 −3 −9
   
x1 0
X =  x2  ; B =  0 . Alors (S) ⇐⇒ AX = B = 0M31 (R) .
   

x3 0

Ecriture matricielle de (S).


   
x1 b1
 .   . 
Soit X =  ..  ; B =  .. . Alors (S) ⇐⇒ AX = B.
xn bm

Exemple 2.1.3. Considérons le système linéaire




 x1 + 7x3 = −1
(S) ⇐⇒ 2x1 − x2 + 5x3 = −5

−x1 − 3x2 − 9x3 = 7

Sa matriceassociée est 
1 0 7
A =  2 −1 5  ;
 

−1 −3 −9
   
x1 −1
X =  x2  ; B =  −5 . Alors (S) ⇐⇒ AX = B
   

x3 7

Exemple 2.1.4. Considérons le système linéaire homogène

UTA 15 Dr BAMBA K. Bertrand


Systèmes d’équations linéaires



 x1 + 7x3 = 0
(S) ⇐⇒ 2x1 − x2 + 5x3 = 0

−x1 − 3x2 − 9x3 = 0

Sa matriceassociée est 
1 0 7
A =  2 −1 5  ;
 

−1 −3 −9
   
x1 0
X =  x2  ; B =  0 . Alors (S) ⇐⇒ AX = B = 0M31 (R) .
   

x3 0

2.1.1 Résolution de système de Cramer


Définition 2.1.2. Le système (S) est dit de Cramer si m = n et si det A 6= 0 . C’est dire
que dans le système (S) le nombre d’équations est égal au nombre d’inconnues ; et A est
la matrice du système (S).

2.1.2 Inversion matricielle


Théorème 2.1.1. Tout système de Cramer (S) admet une solution unique X = A−1 B.

Exemple 2.1.5.

 x − 2y + z = 3

(Σ) ⇐⇒ 2x − y + z = 1

−x − y + z = 0

 
1 −2 1
La matrice associée à (Σ) est A =  2 −1 1 
 

−1 −1 1
et det (A) =3 6= 0 ; c’est donc
 un système de Cramer.
1 −1
0 3 3
−1
A =  −1 32 13 ,
 

−1 1 1
        
x 3 0 13 −1 3
3 1
3
on a alors  y  = A−1  1  =  −1 32 13   1  =  −7 .
        
3 
z 0 −1 1 1 0 −2
 
1 −7
Donc SR3 = ; ; −2 .
3 3

UTA 16 Dr BAMBA K. Bertrand


Systèmes d’équations linéaires

2.2 Résolution d’un système de Cramer par des détermi-


nants


 a11 x1 + a12 x2 + ... + a1n xn = b1

 a21 x1 + a22 x2 + ... + a2n xn = b2

Soit (Σ) ⇐⇒ .. .. .. ,


 . . .

 a x + a x + ... + a x
n1 1 n2 2 nn n = bn
un système de n équations à n inconnues de Cramer. On appelle déterminant du sys-
tème (Σ) le nombre ∆ = det A, où A est la matrice associée a (Σ).
On appelle déterminant de xi le nombre ∆xi égal au déterminant de la matrice obtenue
en remplaçant dans A la ième colonne par les éléments respectifs des seconds membres
c’est-à-dire b1 , b2 , ..., bn .
 
n ∆x1 ∆x2 ∆xn
Théorème 2.2.1. (Σ) étant de Cramer, l’unique solution dans k est : ; ; ....; .
∆ ∆ ∆

 x − 2y + z = 3

Exercice 2.2.1. (Σ) ⇐⇒ 2x − y + z = 1 .

−x − y + z = 0

Réponse  
1 −2 1
La matrice associée à (Σ) est A =  2 −1 1 ,
 

−1 −1 1
1 −2 1
∆ = det A = 2 −1 1
−1 −1 1
1 −2 −1
= 2 −1 0 = 3 (je rappelle que j’ai fait col3 + col2 )
−1 −1 0
3 −2 1 1 3 1
∆x = 1 −1 1 = 1 ; ∆y = 2 1 1 = −7 ;
0 −1 1 −1 0 1
1 −2 3
∆z = 2 −1 1 = −6 ;
−1 −1 0
∆x 1 ∆y −7 ∆z −6
x= = ;y= = ; z= = = −2
∆ 3 ∆ 3
 ∆ 3
1 −7
Donc SR3 = ; ; −2 .
3 3

UTA 17 Dr BAMBA K. Bertrand


Systèmes d’équations linéaires

2.2.1 Méthode du pivot de Gauss


On dit qu’un système est échelonné si et seulement si tous les coefficients
figurant en-dessous de la diagonale sont nuls.
Cela revient à dire que ∀i > j, aij = 0.
Autant dire qu’un système échelonné se présente sous l’une des trois
formes suivantes :
(a) Si m = n
(un tel système est dit carré et l’on dit d’un système carré échelonné
 qu’il est trigonal).

 a11 x1 + a12 x2 + · · · +a1n xn = b1

a22 x2 + · · · +a2n xn = b2


... ..


 .

 a x =b
nn n n
Dans ce premier cas il est facile de résoudre le système lorsque tous
les termes diagonaux sont non nuls. on utilise
l’algorithme de la remontée :
bn
la dernière équation donne en effet la valeur xn = ,
ann
puis l’avant-dernière ligne donne la valeur
1 
xn−1 = bn−1 − a(n−1)n xn et, plus généralement,
a(n−1)(n−1) !
n
1 X
on obtient : xk = bk − akj xj ,
akk j=k+1
ce qui permet de calculer les xk successifs par ordre décroissant de
l’indice k. Le système admet une unique solution, et cela quel que
puisse être le second membre.
Un système ayant cette propriété s’appelle un système de Cramer.
Si, au cours de cet algorithme, on trouve un coefficient diagonal nul
dans une ligne, par exemple la ligne k, alors on ne peut pas trouver
la valeur de xk .
La ligne correspondante introduit une condition de compatibilité.
Si cette condition n’est pas vérifiée, le système n’admet pas de solutions ;
si au contraire cette condition est vérifiée, toute solution de xk convient
et l’on peut poursuivre l’algorithme. Il y a alors une infinité de solutions,
paramétrées par la valeur de xk .
Cette situation peut d’ailleurs se rencontrer plusieurs fois au cours de
la remontée, induisant une discussion plus approfondie.
On voit par là l’intérêt des systèmes triangulaires dont les coefficients
diagonaux sont non nuls.

UTA 18 Dr BAMBA K. Bertrand


Systèmes d’équations linéaires

(b) Sim < n : on a :


 a11 x1 + a12 x2 + · · · +a1n xn = b1


a22 x2 + · · · +a2n xn = b2


.. .. .. .


 . . .

 amm xm = bm
Dans ce cas, on fixe arbitrairement les valeurs des variables xm+1 à xn .
On est alors ramené au cas précédent, simple à résoudre lorsque tous
les coefficients diagonaux sont non nuls, nécessitant une discussion sinon.
(c) Si m > n :



 a11 x1 + a12 x2 + · · · +a1n xn = b1



 a22 x2 + · · · +a2n xn = b2
.. ..

 ..
.



 . .
ann xn = bn .

0 = bn+1





 .
.. ..



 .

 0 = bm
Dans ce cas les dernières lignes donnent directement des conditions de
compatibilité.
Lorsqu’elles sont vérifiées, on se ramène au cas ci-dessus. D’où, là encore,
l’intérêt de l’obtention de coefficients diagonaux non nuls.
 

 2x − y − z = 1 (E1 )  2x − y − z = 1
 (E1 )
Exemple 2.2.1. Soit (S) ⇔ 3x + 4y − 2z = 0 (E2 ) ⇔ 6y − 6z = 1 (E2 − E3 )
 
3x − 2y + 4z = −1 (E3 ) y − 11z = 5 (3E1 − 2E3 )
 

1
 2x − y − z = 1
 (E1 ) ⇒ x = 10
19
⇔ 6y − 6z = 1 (E2 ) ⇒ y = − 60 .
 29
−60z = 29 (6E3 − E2 ) ⇒ z = − 60

 
1 19 29
Donc SR3 = ;− ;− .
10 60 60
Exercice 2.2.2. Résoudre les systèmes suivants :
 
 x + y + 2z = 3
  x + 2z = 1

x + 2y + z = 1 −y + z = 2
 
2x + y + z = 0 x − 2y = 1
 

Exercice 2.2.3. Résoudre le système suivant :



3 2 6
 xy z = 1

x4 y 5 z 12 = 2

 2 2 5
x y z = 3.

UTA 19 Dr BAMBA K. Bertrand


Systèmes d’équations linéaires

2.2.2 Résolution de systèmes singuliers

UTA 20 Dr BAMBA K. Bertrand


Chapitre 3

NOTION D’ESPACE VECTORIEL

3.1 Généralités
Définitions
Dans ce qui suit, K = R ou C

Définition 3.1.1. Un K-espace vectoriel est un ensemble non vide E muni :


• d’une loi de composition interne, c’est-à-dire d’une application de E × E dans
E:

E×E → E
(u, v) 7→ u + v

• d’une loi de composition externe, c’est-à-dire d’une application de K × E dans


E:

K ×E → E
(λ, u) 7→ λ.u

qui vérifient les propriétés suivantes :


1 u + v = v + u (pour tous , v ∈ E).
2 u + (v + w) = (u + v) + w (pour tous u, v, w ∈ E).
3 Il existe un élément neutre 0E ∈ E tel que u + 0E = u (pour tout u ∈ E).
4 Tout u ∈ E admet un symétrique u0 tel que u + u0 = 0E .
Cet élément u0 est noté −u.
5 1.u = u (pour tout u ∈ E).
6 λ.(µ.u) = (λ.µ).u (pour tous λ, µ ∈ K, u ∈ E).

21
Systèmes d’équations linéaires

7 λ.(u + v) = λ.u + λ.v (pour tous λ ∈ K, u, v?E)


8 (λ + µ).u = λ.u + µ.u (pour tous λ, µ ∈ K, u ∈ E).

Nous nous contenterons cependant de la définition suivante en lieu et placede la défi-


nition formelle ci-dessus :

Définition 3.1.2. Un espace vectoriel est un ensemble formé de "vecteurs", de sorte que
l’on puisse additionner (et soustraire) deux vecteurs u, v pour en former un troisième
u + vou (u − v) et aussi afin que l’on puisse multiplier chaque vecteur u d’un facteur λ
pour obtenir un vecteur λ.u.

Sous-espaces vectoriels
Définition 3.1.3. Soit E un K-espace vectoriel. Une partie F de E est appelée un sous-
espace vectoriel si :
 0E ∈ F ,
 u + v ∈ F pour tous u, v ∈ F ,
 λ.u ∈ F pour tout λ ∈ K et tout u ∈ F .

Théorème 3.1.1 (Caractérisation d’un sous-espace par la notion de combinaison linéaire).


. Soient E un K-espace vectoriel et F une partie non vide de E. F est un sous-espace
vectoriel de E si et seulement si λ.u + µ.v ∈ F pour tous u, v ∈ F et tous λ, µ ∈
K. Autrement dit si et seulement si toute combinaison linéaire de deux éléments de F
appartient à F .

Exemples d’espaces vectoriels


• (M2 (R) ×, .) est un R espace cectoriel.
• R, R2 , . . . Rn pour tout n ∈ N? sont des espaces vectoriels. il en est de même pour
Cn pour tout n ∈ N? .
• l’ensemble des fonctions continues sur un intervalle muni de l’addition et de la
multiplication par un nombre réel est un espace vectoriel.

Définition 3.1.4. Soit E un K-espace vectoriel. Les éléments de E sont appelés des vec-
teurs et les éléments de K des scalaires.

Définition 3.1.5. Soit n > 1 un entier, soient v1 , v2 , . . . , vn , n vecteurs d’un espace vecto-
riel E. Tout vecteur de la forme u = λ1 v1 + λ2 v2 + · · · + λn vn où λ1 , λ2 , . . . , λn sont des
éléments de K est appelé combinaison linéaire des vecteurs v1 , v2 , . . . , vn . Les scalaires
λ1 , λ2 , . . . , λn sont appelés coefficients de la combinaison linéaire.

Exemple 3.1.1. Dans R3 , w = (3, 3, 1) est combinaison linéaire de u = (1, 1, 0) et de


v = (0, 0, 1) car (3, 3, 1) = 3(1, 1, 0) + (0, 0, 1). Ainsi, w = 3u + 1v.

UTA 22 Dr BAMBA K. Bertrand


Systèmes d’équations linéaires

   
1 6
3
Exercice 3.1.1. Dans R ,on donne : u =  2  et, v =  4 
   

−1 2
 
9
1 Justifie que w =  2  est combinaison linéaire de u et v.
 

7
 
4
2 t =  −1  est-il combinaison linéaire de u et v ?
 

3.1.1 Base et dimension d’un espace vectoriel


Définition 3.1.6. • Soit n > 1 un entier, la famille (v1 , v2 , . . . , vn ), de n vecteurs de
E est dite libre si : λ1 v1 + λ2 v2 + · · · + λn vn = 0E ⇒ λ1 = λ2 = . . . λn = 0. Une
famille qui n’est pas libre est dite liée.
• La famille (v1 , v2 , . . . , vn ) de E est dite génératrice de E si tout vecteur de u ∈ E
s’écrit de la forme : u = λ1 v1 + λ2 v2 + · · · + λn vn .
• Une base de E est une famille libre et génératrice de E.

Définition 3.1.7. Si une base d’un espace vectoriel E possède un nombre fini n d’élé-
ments,toutes les autres bases possèdent le même nombre d’éléments.
Ce nombre est appelé la dimension de ce espace vectoriel. On écrit : dimE = n.

Exemples 3.1.1. 1 Dans R2 , B = (e1 , e2 ) avec e1 = (1, 0) et e2 = (0, 1) est une


base de R2 . on l’appelle la base canonique de R2 . Ainsi dimR2 = 2
2 Dans R3 , B = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) est
une base de R3 . on l’appelle la base canonique de R3 . Ainsi dimR3 = 3
3 (1, X, X 2 ) est la base canonique de R2 [X] l’espace vectoriel des polynômes de
degré ≤ 2. Ainsi dimR2 [X] = 3.
4 dimM2 (R) = 4 où M2 (R) est l’espace vectoriel des matrices carrées d’ordre 2
à coefficients réels.

Propriété 3.1.1. Soit E un espace vectoriel de dimension fini n et B = (e1 , e2 , . . . en )


une base de E. Alors tout vecteur u ∈ E s’écrit de manière unique comme combinaison
linéaire des éléments de B.

UTA 23 Dr BAMBA K. Bertrand


Systèmes d’équations linéaires

3.1.2 Matrice d’un système de vecteurs


Soit E un espace vectoriel de dimension fini n et B = (e1 , e2 , . . . en ) une base de E.
on considère le système S de vecteurs de E suivant :

f1 = a11 e1 + a21 e2 + · · · + an1 en


f2 = a12 e1 + a22 e2 + · · · + an2 en
..
.
fq = a1q e1 + a2q e2 + · · · + anq en

La matrice MB (S) ci-dessous est appelée la matrice du système S relativement à la base


B.  
a11 a12 · · · a1q
 a21 a22 · · · a2q 
 
MB (S) =   .. .. 
 . . 

an1 an2 · · · anq
Autrement dit, cette matrice s’obtient en mettant les coeficients de f1 à la première co-
lonne, les coefficients de f2 à la deuxième colonne et ainsi de suite.
Soit E un espace vectoriel de dimension fini n et B = (e1 , e2 , . . . en ) une base de E.
Si B 0 est un système de n autres vecteurs, alors, on a les propriétés suivantes :

Propriété 3.1.2. B 0 est une base de E si et seulement si : det(MB (B 0 )) 6= 0.


Dans ce cas P = MB (B 0 ) est appelée la matrice de passage de la base B à la base B 0 .

Propriété 3.1.3. Soient E un espace vectoriel de dimension finie et B et B 0 deux bases de


E et P la matrice de passage de B à B 0 . Soit u ∈ E un vecteur de E.
Si X est le vecteur colonne formé des coefficients de u dans la base B et X 0 le vecteur
colonne formé des coefficients de u dans la base B 0 . Alors on a :

X 0 = P −1 X

Où P −1 est l’inverse de la matrice P .

Propriété 3.1.4. Si P est la matrice de passage d’une base B à une base B 0 , alors P −1
est la matrice de passage de la base B 0 à la base B.

3.2 Exercices d’applications


Exercice 3.2.1. Dans R3 , on donne les vecteurs :
u = (0; 1; 1) ;v = (2, 0; −1) et w = (2; 1; 1).
1 Montrer que B 0 = (u; v; w) est une base de R3 .

UTA 24 Dr BAMBA K. Bertrand


Systèmes d’équations linéaires

2 Déterminer les coordonnées de t = (4; −1; 1) dans la base B 0 .

Exercice 3.2.2. On considère R2 [X] muni de sa base canonique : B = (1; X; X 2 )


1 Justifie que B 0 = (1; 1 + X; (1 + X)2 ) est une base de R2 [X].
2 Déterminer les coordonnées de P (X) = a + bX + cX 2 dans la base B 0 .

UTA 25 Dr BAMBA K. Bertrand


Chapitre 4

APPLICATIONS LINÉAIRES

4.1 Généralités sur les applications linéaires


Soient E et F deux K espaces vectoriels. Une application f : E → F est dite linéaire
si :
• ∀u; v ∈ E, f (u + v) = f (u) + f (v)
• ∀λ ∈ K, ∀u ∈ E, f (λu) = λf (u)

Propriété 4.1.1. Une application f : E → F est linéaire si et seulement si :


• ∀u; v ∈ E, ∀λ, µ ∈ K, f (λu + µv) = λf (u) + µf (v)

Remarque 4.1.1. Si f : E → F est une application linéaire, alors f (0E ) = 0F .

Soit f : E → F une application linéaire.

Définition 4.1.1.
• Le noyau de f est : {u ∈ E tq : f (u) = 0F }. On le note Ker(f ).
• L’image de f noté Im(f ) est : Im(f ) = {y ∈ E tq ∃ x ∈ E avec y = f (x)}.

Propriété 4.1.2. Soit f : E → F une application linéaire.


• f est injective si et seulement si : Ker(f ) = 0E .
• f est surjectif si et seulement si : Im(f ) = F

Propriété 4.1.3. Soit f : E → F une application linéaire. Si E et F sont de dimensions


finies, alors on a :
dim Ker (f) + dim (Im (f)) = dim E.
dim(Im(f )) se note aussi rg(f ) et est appelé rang de f .

26
Systèmes d’équations linéaires

4.1.1 Matrice d’une application linéaire


Soient E et F deux espaces vectoriels de dimensions finies n et p. BE = (e1 , e2 , . . . en )
une base de E et BF = (e01 , e02 , . . . e0p ) une base de F On considère une application linéaire
f :E→F

f (e1 ) = a11 e01 + a21 e02 + · · · + ap1 e0p


f (e2 ) = a12 e01 + a22 e02 + · · · + ap2 e0p
..
.
f (en ) = a1n e01 + a2n e02 + · · · + apn e0p

La matrice MB (S) ci-dessous est appelée la matrice de f relativement aux bases BE et


BF .  
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
MBE ,BF (f ) = 
 .. .. 
. . 


ap1 ap2 · · · apn
Autrement dit, cette matrice s’obtient en mettant les coeficients de f (e1 ) , exprimés dans
la base BF à la première colonne, les coefficients de f (e2 ) exprimés dans la base BF à la
deuxième colonne et ainsi de suite.

Définition 4.1.2. Une application linéaire d’un espace vectoriel E dans lui même est ap-
pelé un endomorphisme de E. Un endomorphisme bijectif est appelé un automorphisme.

Définition 4.1.3. Soit E un espace vectoriel de dimension finie et f un endomorphisme


de E Soit B une base de E. La matrice de f relativement aux bases B et B est simplement
appelée matrice de f relativement à B. on la note MB (f ).

Théorème 4.1.1. f est un automorphisme si et seulement si : det(MB (f )) 6= 0.

Dans la suite, nous prenons E = Rn .(n = 2 ou 3)

4.1.2 Cas des endomorphismes de Rn et Cn (n = 2 ou 3)


Quand on a la matrice de f relativement à une base B, pour retrouver l’expression de f ,
on multiplie la matrice MB (f ). par la matrice colonne coordonées. Comme on sait aussi
passer de l’expression de f à sa matrice, on pourra facilement identifier une application
linéaire à sa matrice relativement à une base donnée.

UTA 27 Dr BAMBA K. Bertrand


Systèmes d’équations linéaires

Changement de base.

Quand on change de base et qu’on veut trouver la matrice de f relativement à la


nouvelle base on peut :
— Ecrire la matrice de passage de P de la base B à la base B 0
— Calculer P −1 la matrice inverse de P
— Appliquer la formule : MB0 (f ) = P −1 .MB (f )P.

4.1.3 Une base dans laquelle la matrice est simple ?


C’est le problème de la diagonalisation ou de la trigonalisation.
Soit f un endomorphisme de E = Rn ou Cn .

Définition 4.1.4. Un vecteur u de E est appelé vecteur propre de f s’il existe λ ∈ K tel
que f (u) = λu.
Dans ce cas, λ est appelé valeur propre associée au vecteur propre u.
L’ensemble des vecteurs propres associés à un valeur propre λ est appelé le sous-espace
propre associé à λ. Nous le noternons Eλ .

Théorème 4.1.2. Soient E un espace vectoriel et f un endomorphisme de E et


λ ∈ R (resp.C) Le scalaire λ est valeur propre de f si et seulement si l’endomorphisme
f − λId n’est pas inversible. Autrement dit si et seulement si det(M − λIn ) = 0. où
Eλ = Ker(f − λId)

Définition 4.1.5. Un endomorphisme de E est dit diagonalisable, s’il existe une base de
E dans laquelle sa matrice est diagonale.

4.2 Théorèmes de diagonalisation


Théorème 4.2.1. Toute matrice symétrique est diagonalisable.

Théorème 4.2.2. Si une matrice d’ordre n a n valeurs propres distinctes alors elle est
diagonalisable.

Théorème 4.2.3. Soit A une matrice carrée et PA (λ) = (λ−λ1 )α1 (λ−λ2 )α2 · · · (λ−λp )αp
son polynôme caractéristique.
A est diagonalisable si et seulement si : ∀i = 1, . . . p, dimEλi = αi .
Autrement dit, si pour chaque valeur propre, la dimension du sous-espace propre est égale
à la multiplicité, alors la matrice est diagonalisable.

Théorème 4.2.4. Soit A une matrice carrée. A est diagonalisable si et seulement si il


existe une matrice P telle que :
A = P −1 AP

UTA 28 Dr BAMBA K. Bertrand


Systèmes d’équations linéaires

4.2.1 Applications
On
donne les matrices
 :    
0 2 −1 3 0 −1 2 1 1
A =  3 −2 0  B =  2 4 2  et C =  1 2 1 
     

−2 2 1 −1 0 3 1 1 2

4.2.2 Partie A
1 Justifier que chacune de ces matrices est diagonalisable.
 
1 4 2
2 Soit P =  1 3 −3  Calculer D = P −1 AP
 

1 −2 2
3 Justifie que ∀n ∈ N? on a : An = P Dn P −1 . Calculer alors An .

4.2.3 Partie B
On considère le système :

 un+1 = 2vn − wn

vn+1 = 3un − 2vn

wn+1 = −2un + 2vn + wn

   
un u0
1 Démontrer que ∀n ∈ N on a :  vn  = An  v0 
   

wn w0
2 En déduire les expressions de un , vn et wn en fonction de n sachant que :
u0 = 1; v0 = 2 et w0 = 3

4.2.4 Un système différentiel


On considère le système differntiel :

0
 x (t) = 2y(t) − z(t)

(S) y 0 (t) = 3x(t) − 2y(t)

 0
z (t) = −2x(t) + 2y(t) + z(t)

UTA 29 Dr BAMBA K. Bertrand


Systèmes d’équations linéaires

   
a(t) x(t)
1 En posant  b(t)  = P  y(t)  Justifier que
   

c(t) z(t)
   
a(t) a0 (t)
S ⇔ (S 0 ) :  b(t)  = D  b0 (t) 
   

c(t) c0 (t)

où D est une matrice diagonale.


2 Résoudre alors (S 0 ) puis S sachant que x(0) = 2; y(0) = 1 et z(0) = −2.

UTA 30 Dr BAMBA K. Bertrand

Vous aimerez peut-être aussi