Vous êtes sur la page 1sur 43

4.

5 MATRICES INVERSIBLES, CHANGEMENT DE BASES

4.5.1 Matrices Inversibles

Définition 4

On dit qu’une matrice M  M n ( K ) est inversible ou régulière s’il existe une matrice de

M n ( K ) , notée M −1 telle MM −1 = M −1M = I n

Théorème 4

L’ensemble des matrices inversibles de M n ( K ) est un groupe multiplicatif, isomorphe au

groupe GL(E) des automorphismes de E.

4.5.2 Changement de Bases

Considérons dans un espace vectoriel E de dimension n sur un corps K, deux bases distinctes:

B = e1 , e2 , , en 
C = u1 , u2 , , un 

Problème

Connaissant les coordonnées  x1 , x2 , , xn  du vecteur x de E dans la base B, déterminer les

coordonnées  x1, x2 , , xn  de ce même vecteur dans la base C. Il existe un endomorphisme f

de E, et un seul, qui envoie la base B sur la base C, c’est-à-dire tel que:


f ( e 1 ) = u1 , , f ( en ) = un , de plus, cet endomorphisme est bijectif: c’est un automorphisme

de E. Il en résulte que la matrice dans f dans toute la base E est inversible.

( i ) f ( ei ) =  i =1 aij ei
n

La matrice ( aij ) se somme matrice de passage de la base B à la base C. On la note:

P = ( aij )  GL ( n, K ) (groupe linéaire à n variables sur le corps K). On sait que dans

l’ancienne base B ; x se décomposait de la façon suivante:

1
n
( 2) x = x1e1 + + xn en =  xi ei
i =1

Dans la nouvelle base C, on obtient:

n
( 3) x = x1u1 + + xn un =  xiui ;
i =1

Or, on sait que: ui = f ( ei ) , d’où

(  a e )=  (  a x ) e
n
( 3 ) x =  xi
n n n '
i ij i i =1 i ij i i
i =1

En comparant (2) et (3’) on obtient:

xi =  i =1 aij xj (1  i  n )
n

Ces n relations expriment les coordonnées de x dans l’ancienne base B en fonction des
coordonnées de x dans la nouvelle base C.

 x1   x1' 
   '
x x 
Posons: X =   , , X  =  2 
2
 
   
 xn   x' 
 n

La relation (4) peut alors s’exprimer sous la forme matricielle, ce qui donne: X = PX 

Les nouvelles coordonnées en fonction des anciennes sont données par: X  = P −1 X

4.6 TRANSPOSEE D’UNE MATRICE

4.6.1. Définition

On appelle transposée d’une matrice M  M p ,n ( K ) , la matrice notée M ' appartient à

M n , p ( K ) , obtenue à partir de M en échangeant les lignes et les colonnes.

2
M = ( aij ) , , (1  i  p, 1  j  n )

M ' = ( a ji )

4.6.2. Opération sur les Transposées

(i) Transposée d’une somme:

1 2 2
 
M = 0 1 6
2 1 8 

0 1 0
 
N = 2 1 5
7 0 4 

Soit  ,  
Calculer:  M ,  N;  M +  N ; ( M +  N ) ';  M ,  N ;  M  +  N 
Comparer : ( M +  N ) ' et  M  +  N 
 2 2   0  0 
 M =  0  6  ; 
 N =  2   5 

 2  8   7 0 4 
 
  2 +  2 

 M +  N =  2  +  6 + 5 
 2 + 7   8 + 4  

  2 2 + 7  

( M +  N ) ' =  2 +   +   
 2 6 + 5 8 + 4  

 1 0 2    2 2 
 M  =   2 1 1  =  0  6 
 2 6 8   2  8 
   
 0 2 7   0 2 7  
 N  =   1 1 0  =    
0 
 0 5 4   0 5 4  
   
  2 2 + 7  

 M  +  N  =  2 +   +   
 2 6 + 5 8 + 4  

( M +  N ) ' =  M  +  N 

3
(ii) Transposée d’un produit:

 0 1 2 1 2 3  4 3 22 
     
NM =  2 1 5    0 1 6  = 12 10 52 
 7 0 4   2 1 8   15 18 53 
    
 4 12 15 
( NM ) ' =  3 10 18 
 22 52 53 
 
1 0 2 0 2 7
   
M  = 2 1 1 ; N = 1 1 0
3 6 8  2 5 4
   
 1 0 2   0 2 7   4 12 15 
     
M N  =  2 1 1   1 1 0  =  3 10 18 
 3 6 8   2 5 4   22 52 53 
    
( NM ) ' = M N 

4.6.3. Transposée d’une Matrice Inversible

Pour qu’une matrice carrée M soit inversible, il faut et il suffit que t M le soit.

(Différentes façons de noter la transposition, M ', M T , t M )

4
1 2 2
 
M = 0 1 6
2 1 8
 
( M) ,M (M )
t t −1 −1 −1
Calculer M, ,

( M ) ?( M )
t t −1

1 0 2 1 0 2 1 0 0
  1 −3
M =  2 1 1  = N;
t t
M = 2 1 1 = 2 1 −3 =
2 6 8 6 4
  2 6 8 2 6 4
Calculer déterminant
Det ( N ) =Det t M = 4 + 18 = 22  0

−1 N
N = où N  est la comatrice de N
Det ( N )
1 0 2
 
N=  2 1 1 
2 6 8
 

bij = ( −1) det ( Nij )


i+ j

N = matrice des cofacteurs


 2 −14 10 
 
N =  12 4 −6 
 −2 3 1 

5
 2 12 −2 
 
Comatrice de N noté N = N  =  −14 4 3 

 10 −6 1 
 
 2 12 −2 
1  
N = ( M ) =  −14 4 3 
−1 −1

22  
 10 −6 1 
 1 6 1
 11 − 
11 11
 
7 2 3 
N −1 = ( M ) =  −
−1

 11 11 22 
 
 5 −
3 1 

 11 11 22 
1 2 2
 1 6
M = 0 1 6 =   = 4 + 18 = 22
 −3 4 
2 1 8
 det ( M ) = det ( M ) = 22
1
M −1 = .M  , avec M  comatrice de M.
det ( M )
N = ( bij ) , bij = ( −1)
i+ j
M ij , avec M ij sous matrice de M obtenue en supprimant la i ème ligne et la jème colonne.
 2 12 −2   2 −14 10 
   
N=  −14 4 3  , M = N  =  12

4 −6 
 10 −6 1   −2 3 1 
  
 2 −14 10 
−1 1  
M =  12 4 −6 
22 
 −2 3 1 
 1 7 5 
 11 − 11 11 
 
6 2 3
M −1 =  − 
 11 11 11 
 
 − 1 3 1 

 11 22 22 
 M −1 = ( M−1 ) ou ( M ) = ( M −1 ) '
−1

6
CHAPITRE 5: DETERMINANTS

5.1. APPLICATIONS BILINEAIRES

5.1.1. Définition

Soit E, F, G trois espaces vectoriels sur le même corps K. Une application f de E  F dans G
est dite bilinéaire si, x, x  E , y, y  F et a  K

f ( xa, y ) = f ( x, ay ) = af ( x, y )
f ( x + x, y ) = f ( x, y ) + f ( x, y )
f ( x, y + y  ) = f ( x, y ) + f ( x , y  )

En d’autres termes, l’application ( x, y ) → f ( x, y ) est pour y fixe, linéaire selon la variable x

et x fixé, selon la variable y ; donc f est bilinéaire.

5.1.2. Formes bilinéaires

Lorsque G=K, f est alors nommée forme bilinéaire.

5.1.3. Application Bilinéaire Alternée

Supposons maintenant que E=F.

Définition 2

Une application bilinéaire de E E dans G est dite alternée si, x  E , f ( x, x) = 0

Propriété 1

Soit E et G deux K-espaces et f : E 2 → G une application bilinéaire :

1) Si f est alternée, alors x, y  E , on a : f ( y, x ) = − f ( x, y )

2) Réciproquement, si cette expression a lieu x, y  E et si le corps K n’est pas de


caractéristique 2, alors 1 est alternée admis sans démonstration.

7
5.1.4. Cas où Dim E=2

Etudions à présent les applications bilinéaires alternées dans le cas où dim E=2 sur le corps K,
G étant quelconque. Introduisons les déterminants du second ordre.

Théorème 1

Soit E et G deux espaces vectoriels sur le corps K et dim E=2. Pour toute base e1 , e2  de E et

tout vecteur k de G, il existe une application bilinéaire alternée, et une seule, f de E 2 dans G
telle que f (e1 , e2 ) = k .

Preuve

x, y  E rapporté à la base choisie :

x = x1e1 + x2e2
y = y1e1 + y2e2

i) Unicité

Soit une application bilinéaire alternée de f dans G, alors,

f ( e1 , e1 ) = f ( e2 , e2 ) = 0
f ( e1 , e2 ) = f ( e2 , e1 )

Comme f est bilinéaire, f ( x, y ) = x1 y1 f (e1 , e1 ) + x1 y2 f (e1 , e2 ) + x2 y1 f (e2 , e1 ) + x2 y2 f (e2 , e2 )

Par conséquent, f ( x, y) =  x1 y2 − x2 y1 f (e1 , e2 )

Ce qui prouve, que si l’application bilinéaire alternée f de l’énoncé existe, elle coïncide
avec (i) f ( x, y) =  x1 y2 − x2 y1 k

ii) Existence

Prouvons que l’application f de E 2 dans G définie par (1) est bien bilinéaire alternée. Pour y
fixé dans E, on a en effet, x, x, x  E et a, a, x  K

8
f (ax + ax, y ) =  (ax1 + ax1) y2 − (ax2 + ax2 ) y1  k
=a( x1 y2 − x2 y1 )k + a( x1 y2 − x2 y1 )k
=af ( x, y ) + af ( x, y )

Par conséquent, f ( x, y) est linéaire en x. De la même façon, on peut prouver que f(.) est
linéaire en y, x étant fixé. Enfin, f est alternée, car :

x  E , f ( x, x) = ( x1 x2 − x2 x1 )k = 0 et le théorème est établi.

5.1.5. Déterminant d’ordre 2

Considérons le théorème 1 et supposons que G=K. Choisissons pour vecteur k le « vecteur » 1


de l’espace vectoriel K. il existe une forme bilinéaire alternée, et une seule, telle que
f ( e1 , e2 ) = 1 . Pour une telle forme, f ( x, y) se nomme déterminant des vecteurs x et y par

rapport à la base (e1 , e2 ) . On note:

 x1 y1 
 
 x2 y2 

x1 y1
D ( x, y ) = x1 y2 − x2 y1 =
x2 y2

Preuve 1

a c  a b a b
M = M '=  M ' = = ad − cb
b d  c d c d
a c
Det ( M ) = = ad − bc = M '
b d

De cette définition, on voit immédiatement que:

Det ( M ') = Det ( M )

5.2. APPLICATIONS TRILINEAIRES ALTERNEES

5.2.1. Applications Trilinéaires

9
Définition 3

Une application ( x, y, z ) → f ( x, y, z ) de E 3 dans G est dite tri-linéaire si

i) Elle est linéaire en chacun des vecteurs x, y , z

ii) f ( x, y, z ) = 0 dès que deux des trois vecteurs coïncident. En d’autres termes, si

l’on fixe l’un quelconque des trois vecteurs, l’application f est bilinéaire en les
deux autres.

5.2.2. Cas où dim E=3

Nous allons étudier les déterminants d’ordre 3 lorsque dim E=3 sur le corps K, l’espace
vectoriel G étant quelconque sur K.

Théorème 2

Soit E et G deux espaces vectoriels sur K, dim E=3. Pour toute base e1 , e2 , e3  de E et tout

vecteur k de G, il existe une application trilinéaire alternée, et une seule, f de E dans G telle
que e1 , e2 , e3  = k .

Preuve

i) Unicité

Soit f une application trilinéaire alternée de E 3 dans G, dans la base e1 , e2 , e3  désignons par

( x1 , x2 , x3 ) , ( y1, y2 , y3 ) , ( z1, z2 , z3 ) les coordonnées des trois vecteurs x, y , z :

x = x1e1 + x2 e2 + x3e3 =  i =1 xi ei
3

y = y1e1 + y2 e2 + y3e3 =  i =1 yi ei
3

z = z1e1 + z2 e2 + z3e3 =  i =1 zi ei
3

Puisque f est trilinéaire

10
f ( x, y , z ) = f ( i =1 i i  i =1 i i  i =1 i i
3
xe,
3
ye, ze
3
)
=  ( xi , y j , zk ) f ( ei , e j , ek )

La somme étant étendue à tous les indices i,j,k pris arbitrairement dans (1,2,3). Il y’a donc
33 = 27 termes dans cette somme. On sait que f ( e1 , e2 , e3 ) = 0 dès que deux indices sont

égaux. Il ne reste à considérer que les termes de la sommation où les trois indices i,j,k sont
distincts, c’est à dire ( i, j , k ) est l’image de (1,2,3) par une permutation.

Il y’a 3! = 6 termes de la sorte, (les 27-6 autres sont certainement nuls). Prouvons que les
f ( e1 , e2 , e3 ) correspondants s’expriment tous en fonction de :

k = f ( e1 , e2 , e3 )

Puisque f est alternée, on a en effet:

f ( e2 , e1 , e3 ) = f ( e1 , e3 , e2 ) = f ( e3 , e2 , e1 ) = k
f ( e2 , e3 , e1 ) = − f ( e2 , e1 , e3 ) = − k
f ( e3 , e1 , e2 ) = f ( e1 , e3 , e2 ) = − k

On remarque que f ( ei , e j , ek ) vaut k ou -k selon que la permutation (1, 2,3)  ( i, j, k ) en paire

ou impaire. On obtient donc :

(2) f ( x, y, z ) = ( x1 y2 z3 + x2 y3 z1 + x2 y1 z2 − x2 y1 z3 − x1 y3 z2 − x3 y2 z1 ) k

Donc f est une application trilinéaire alternée.

ii) Existence

Soit f de E 3 dans G définie par (2). Prouvons que f est bien bilinéaire alternée.

Linéarité de f en x, lorsque y et z sont fixés. Comme les cordonnées de x interviennent une


fois et une seulement dans chacun des termes de la somme (2) et que les cordonnées de ax
sont ax1 , ax2 , ax3 alors en remplaçant dans (2), on obtient :

11
f ( a x, y, z ) = af ( x, y, z )

Comme les coordonnées de x + x sont x1 + x1 , x2 + x2 , x3 + x3 alors on obtient en remplaçant

dans (2): f ( x + x, y, z ) = f ( x, y, z ) + f ( x, y, z ) de la même façon, on peut prouver la

linéarité en y ou z, enfin si deux des trois vecteurs x, y , z sont égaux, alors la relation (2)

montre immédiatement que f ( x, y, z ) = 0 le théorème 2 est établi

5.2.3. Déterminant d’ordre 3

Plaçons-nous dans les hypothèses théorème 2 avec: G=K

Choisissons pour vecteur k l’élément 1 du corps K, il existe alors une forme trilinéaire
alternée f, et une seule, telle f ( e2 , e1 , e3 ) = 1 . Pour une telle forme, f ( x, y, z ) se nomme

déterminant des vecteurs x, y , z par rapport à la base f ( e2 , e1 , e3 ) et se note :

x1 y1 z1
D ( x, y, z ) = x2 y2 z2 = x1 y2 z3 + x2 y3 z1 + x3 y1 z2 − x3 y2 z1 − x2 y1 z3 − x1 y3 z 2
x3 y3 z3

 x1 y1 z1 
 
A =  x2 y2 z2 
x y z 
 3 3 3

DetA = ( x1 y2 z3 + x2 y3 z1 + x3 y1 z2 ) − ( x3 y2 z1 + y3 z2 x1 + z3 y1 x2 )

Re gle de Sarrus

On dit que l’on a développé le déterminant selon la règle de Sarrus :

Exemple

i) Calculer les déterminants suivants:

da a ' a a a ' a


bd b ' b = d b b ' b
dc c ' c c c ' c

12
Puis comparer

On peut factoriser dans un déterminant un facteur commun aux éléments d’une rangée.

ii) Calculer les déterminants suivants :

a1 + a2 a ' a a1 a ' a a2 a ' a


b1 + b2 b ' b ; b1 b ' b ; b2 b ' b
c1 + c2 c ' c c1 c ' c c2 c ' c

Puis comparer

Si les éléments d’une rangée sont des sommes, on peut mettre le déterminant sous la forme
d’une somme de déterminants.

iii) Calculer le déterminant suivant:

a a ' a a a ' a


b b ' b ; - b b ' b
c c ' c c c ' c

Puis comparer

Quand on échange deux lignes (ou colonnes), le déterminant change de signe

iv) Calculer le déterminant suivant:

a a ' ma + na '
b b ' mb + nb ' = 0
c c ' mc + nc '

Si une ligne (ou colonne) est combinaison linéaire des autres, le déterminant est nul

5.2.4. Développement selon les éléments d’une rangée

a a ' a
b b ' b = a ' ( b '' c − bc '' ) + b ' ( ac ''− a '' c ) + c ' ( a '' b − ab ")
c c ' c

13
On peut écrire:

a a ' a
b b" a a" a a"
b b ' b = −a ' +b' −c'
c c" b b" b b"
c c ' c

On dit qu’on a développé le déterminant selon les termes de la seconde colonne. Les
coefficients de a ', b ', c ' sont nommés cofacteurs de ces éléments.

5.3. APPLICATION MULTILINEAIRE

5.3.1. Définition 4

Soit E deux espaces vectoriels sur le même corps k et p un nombre naturel ( p  2 ).

Une application de E p dans F.

(x , x ,
1 2 , x p ) → f ( x1 , x2 , , x p ) est dite n linéaire si elle est linéaire en chacun des p

vecteurs x1 , x2 , , x p . En d’autres termes, pour tout indice i 1, , p et pour tout choix des

x1 , , xi −1 , xi +1 , , x p . L’application partielle x1 → f ( x1 , , x1 , x p ) est linéaire en xi .

5.3.2. Définition 5

Une application p-linéaire f de E p dans F est dite alternée si : xi = x j avec

i = j  f ( x1 , x2 , , xp ) = 0

5.3.3. Cas où dim E=p

Théorème 3 (fondamental)

Soit E et F deux espaces vectoriels sur le corps K et dim E=p. Pour toute base (e1 , e2 ..........ep )

de E et tout vecteur k de E, il existe une application p-linéaire alternée, et une seule, f, de E p


dans F telle que :

f ( e1 , e2 , , ep ) = k

14
5.3.4. Déterminant d’une matrice de Mp(k)

Soit une matrice carrée d’ordre p, à coefficient dans K.

 a11 a12 . . a1 p 
 
 a21 a22 . . a2 p 
M = . . . . . 
 
 . . . . . 
a ap2 . . a pp 
 p1

a11 a12 . . a1 p
a21 a22 . . a2 p
Det ( M ) = . . . . .
. . . . .
a p1 a p 2 . . a pp

Det ( M ) =   ( )a jpi 1 ppi p j

Où:  ( ) est la signature de la permutation  ;  p est le groupe symétrique des

permutations de l’ensemble (1, 2, , p) .

5.4. DETERMINANT DU PRODUIT DE DEUX MATRICES DE Mp(K)

5.4.1. Déterminant du produit de deux matrices

Théorème 4

Quelles que soient les matrices carrées A et B de même ordre, det( BA) = det( B) det( A) .

5.5. DEVELOPPEMENT D’UN DETERMINANT SEOLON LES ELEMENTS D’UNE


RANGEE

Théorème 5

15
Soit M = ( aij ) une matrice de Mp(K), si l’on désigne par M ij la matrice de Mp,i(K) déduite

de M par la suppression de la ligne i et de la colonne j, on a:

Det ( M ) =  i =1 ( −1) aij det ( M ij )


p i+ j

5.5.1. Exemples

a b c d
b c d a c d a b d a b c
a' b' c' d'
= −a "' b ' c' d ' + b "' a ' c' d ' − c "' a ' b' d ' + d "' a ' b' c'
a" b" c" d"
b" c" d " a" c" d " a" b" d " a " b " c"
a "' b "' c "' d "'

5.5.2. Déterminant d’une Matrice Triangulaire

 a11 a12 a13 . a1 p 


 
 0 a22 a23 . a2 p 
Det (T ) =  0 0 a33 . a3 p 
 
 . . . . . 
 0 0 0 . a pp 

Det (T ) = a11a22 a pp

Le déterminant d’une matrice triangulaire est égal au produit des éléments de sa diagonale
principale.

5.6. COMATRICE

5.6.1 Définition

Soit M = ( aij ) une matrice Mp(K), définissons d’abord la matrice N = (bij ) de Mp(K) par

bij = (−1)i + j det( M ij ) . M ij étant la matrice déduite de M par la suppression de la ligne de rang

i et de la colonne de rang j. Alors, on appelle comatrice de M  , et l’on note M, la matrice


transposée de N : M  = N ' .

16
Exemple 2

1 0 2
 
M = 0 −2 1 
0 3 0 

−2 1 0 1
b11 = = −3 ; b12 = − =0
3 0 0 0
0 −2 0 2
b13 = =0 ; b21 = − = −6
0 3 3 0
1 2 1 0
b22 = =0 ; b23 = − = −3
0 0 0 3

0 2 1 2
b31 = =4 ; b32 = − = −1
−2 1 0 1

1 0
b33 = = −2
0 −2

Par conséquent,

 −3 0 0 
 
N =  6 0 −3  matrice des cofacteurs.
 4 −1 −2 
 

La comatrice de M est, par définition

 −3 6 4 
 
M  = N ' =  0 0 −1 
 0 −3 −2 
 

Théorème 6

Quelle que soit la matrice M de M p ( K ) , M  M = MM  = ( det M )

Preuve

Soit M = (aij ) . Posons : bij = (−1)i + j det(Mij ) et b 'ij = bij . On a alors M  = (b 'ij )

17
avec ckj =  j =i bij aij
p
Par définition du produit de deux matrices, on a : M  M = (ckj )

On a par conséquent, ckj =  j =i aij bkj =  j =i (−1) j + k aij det(M jk )


p p

Appelons M’ la matrice déduite de M en remplaçant les éléments aik , , a pk de la colonne k

par les éléments a1 j , a2 j , , a pj de la colonne j (que nous notons a '1k , a '2 k , , a ' pk . D’après le

théorème 5, on reconnait le développement de det(M') selon les éléments de la colonne k :

ckj =  j =i (−1)k +1 a ' jk det ( M 'jk ) = det ( M ')


p

Or, si j  k , la matrice M’ a deux colonnes identiques (celles de rang j et k) et par la suite


det( M ') = 0

j  k  ckj = 0

Si j=k, alors évidemment M ' = M et par suite,

j = k  ckj = det(M )

En résumé,  jk étant le symbole de Kronecker, on a ckj =  jk det(M ) et, par conséquent,

M  M = det(M ) I p .

5.6.2 Matrices inversibles

Théorème 7

Pour qu’une matrice M de Mp(K) soit inversible, il faut, et il suffit, que

M'
det ( M )  0 . On a alors M −1 =
det ( M )

Preuve

18
Supposons M ensemble. Il existe alors M telle que MM −1 = I p

Appliquons le théorème 4 :

det ( MM −1 ) = det ( M ) det ( M −1 )

Comme det( I p ) = I , on obtient:

det( M ) det( M −1 ) = I

Par conséquent, dans la le corps K, det( M )  0 . De plus det( M −1 ) =  det(M)


−1

Suffisance

D’après le théorème 6, on a:

M  M = det ( M ) I p

M'
Supposons det( M )  0 . Alors, M −1 =
det( M )

Le théorème est démontré.

Exemple 3

1 6 2
 
La matrice: M =  0 −2 1  est inversible puisque det ( M ) = −3  0 . Son inverse est:
0 3 0
 

 −3 6 4 
−1 M' −1  
M = =  0 0 −1 
det ( M ) 3  
 0 −3 −2 

Exemple 4

19
Décomposer en un produit de facteurs les déterminants suivants:

1 cos a cos 2a 1 cos a sin 2a 1 cos c cos b


1 cos b cos 2b ; 1 cos b sin 2b ; cos c 1 cos a
1 cos c cos 2c 1 cos c sin 2c cos b cos a 1

Exemple 5

Prouver l’égalité

(b + c )
2
b2 c2
(c + a) = 2abc ( a + b + c )
2 3
a2 c2
(a + b)
2
a2 b2

Exemple 6

Démontrer la relation:

−a b c d
b −a d c
= − ( a + b + c − d )( b + c + d − a )
c d −a b
d c b −a
= ( c + d + a − b )( d + a + b − c )

Exemple 7: Déterminant de Vander Monde

1) Etablir la relation

1 a a2 a3
1 b b2 b3
= ( d − a )( d − b )( d − c )( c − a )( c − b )( b − a )
1 c c2 c3
1 d d2 d3

On pourra remarquer que le déterminant est le polynôme en d degrés 3 dont a, b, c sont des
racines. Il existe alors un scalaire k tel que le déterminant soit égal à k (d − a)(d − b)(d − c) .

20
On prouvera que k est le déterminant obtenu à partir du précédent en supprimant la dernière
ligne et la dernière colonne (ce nouveau déterminant étant encore de Vander Monde).

2) Généralisation. Etablir la relation

1 x1 x12 ...... x1n −1


1 x2 x2 2 ...... x2 n −1
=  ( xi − x j ) i j
1 x3 x32 ...... x3n −1
1 xn xn 2 ...... xn n −1

21
CHAPITRE 6 : THEORIE DU RANG- EQUATIONS LINEAIRES

6.1. THEORIE DU RANG

6.1.1. Rang d’une famille de vecteurs

Définition 1

Dans un espace vectoriel E sur un corps K, on appelle rang de la famille  x1 , , xn   E , la

dimension du sous-espace E’ de E engendré par cette famille. Le rang famille  x1 , , xn  est

donc égal au cardinal de la base du sous-espace engendré par E’, que l’on peut extraire de la
famille.

6.1.2. Rang de la famille d’une application linéaire

Définition 2

Soit E et F deux espaces vectoriels de dimension finie sur le même corps K et f une
application de E dans F. On appelle rang de f, et l’on note rg(f) la dimension du sous-espace
f(E), l’image de E par f dans F.

6.1.3. Rang d’une Matrice

Définition 3

Considérons une matrice M  M p ,n ( K ) , à p lignes et n colonnes.

 a11 . . a1n 
 
. . . . 
M =
 . . . . 
 
 a p1 . . a pn 

On appelle rang de la matrice M, et l’on note rg(M), le rang de la famille des n vecteurs-
colonnes dans l’espace vectoriel K D , linéairement indépendants.

22
6.1.4. Calcul du rang d’une application linéaire

Théorème 1

Soit E et F deux espaces vectoriels de dimension respectives n et p sur le même corps K,


rapporté à des bases respectives B et C. Si relativement à ces bases, un morphisme
g  L( E , F) est représenté par la matrice M  M p ,n ( K ) , alors rg ( M ) = rg ( g ) . (Admis sans

démonstration).

Corollaire 1

Deux matrices semblables ont le même rang.

6.1.5 Calcul du rang d’une famille de vecteurs

Théorème 2

Le rang d’une famille de vecteurs d’un espace vectoriel E de dimension finie est égal au rang
de la matrice des coordonnées de ces vecteurs dans une base quelconque de E.

6.2. CRITERE D’INDEPENDANCE LINEAIRE

Théorème 3

Dans un espace vectoriel de dimension n sur un corps K, les trois propositions suivantes sont
équivalentes :

i) La famille  x1 , x2 , , xn  est dans E

ii) La matrice M est coordonnée des vecteurs x1 , x2 , , xn dans une base de E est

inversible.
iii) Le rang de M est rg(M)=n

Preuve

Soit un espace vectoriel E sur un corps K tel que dim E=n

Corollaire

23
Toute matrice M  0 a un même rang que sa transposée rg ('M) = rg(M)

6.3.1 Critère Général de l’Indépendance Linéaire

Théorème 4

Dans un espace vectoriel F de dimension p, pour qu’une famille de n vectoriel soit libre, il
faut et il suffit que l’on puisse extraire, de la matrice de ces vecteurs dans une base
quelconque de F, une matrice d’ordre n inversible.

6.3.2 Exemple

Dans l’espace R 4 , considérons les trois vecteurs :

x1 = (1,0,0,1) ; x2 = ( 0,1,1,0 ) ; x3 = ( −1,0,1,3)

La matrice M de ces vecteurs dans la base canonique de R 4 est :

1 0 −1
 
0 1 0
M =
0 1 1
 
1 0 3

Désignons par M 1 la matrice formée des trois premières lignes de M.

1 1 0
On trouve det( M 1 ) = 0 1 1 = 1  0
1 0 3

Par conséquent, rg ( M ) = 3 et la famille ( x1 , x2 , x3 ) est libre

0 1 0
det( M 2 ) = 0 1 1 = (0 + 0 + 1) − (0 + 0 + 0) = 1  0
1 0 3

24
Soit B = e1 , e2 ,...., en  une base quelconque de E. Considérons une famille n de vecteurs

x1 , x2 ,...., xn  dont la matrice dans la base B est M = (aij  M p ( K ) . Soit f  L( E )

l’endomorphisme de E associé à M dans B :

f ( e1 ) = x1 , , f ( en ) = xn

Pour que  x1 , x2 , , xn  soit libre, il faut et il suffit que f soit injective, ce qui équivaut à

f  GL( E ) . Or f  GL( E ) équivaut à M inversible. Par conséquent, les propositions i) et ii)

sont équivalentes.  x1 , x2 , , xn  est une famille libre si, et seulement si, l’espace engendré

par cette famille est l’espace E tout entier (puisque dim E=n) et, par conséquent, le rang de
cette famille vaut n.

D’après le théorème 2, ceci équivaut à rg(M)=n. Par conséquent, les propositions i) et ii) sont
équivalentes. Le théorème est démontré.

6.3. CALCUL DU RANG D’UNE MATRICE

6.3.1. Matrice extraite d’une matrice

Soit M = ( a ij ) (1  i  p, 1  j  n ) une matrice de M p ,n ( K ) . On appelle matrice extrait de M

toute matrice déduite de M par suppression de lignes ou de colonnes. Nous nous intéressons
ici aux matrices carrées extraites de M .

6.3.2. Matrice extraite d’une matrice

Théorème 4

Pour toute matrice M  0 , le rang de M est le plus grand entier r tel qu’il existe une matrice
carrée inversible d’ordre r extraite de M .

  a11 a1r  
  a1n 
M =   a2 r a1r  
 a p1 a pn 

25
6.4. EQUATIONS LINEAIRES

6.4.1. Définitions

Soit K un corps commutatif

On appelle système de p équations linéaires à n inconnues, à coefficients dans K , un


système tel que :

a11 x1 + a12 x2 + + a1n xn = b1


a x + a x + + a2 n xn = b2
(1)  21 1 22 2

a p1 x1 + a p 2 x2 + + a pn xn = bp

Les éléments aij de K sont nommés coefficients. Les éléments b1 de K nommés seconds

membres. Coefficients et seconds membres sont des éléments donnés dans K .

Les éléments xi de K sont nommées inconnues. On appelle solution du système tout

n - uplets x1 , x 2 , , x n   K n constitués de n éléments x1 , x 2 , , x n de K qui vérifient les p

équations du système.

Résoudre le système, c’est déterminer l’ensemble des solutions (ensemble qui peut
éventuellement être vide).

6.4.2. Interprétation matricielle du système

Posons

 b1   x1 
 a11 a1n     
  b2 x2
M =  a21 a2 n  ; B=  ; x= 
   
a a pn     
 p1
 bp   xp 

D’après la définition du produit matriciel, le système donné équivaut à :

26
(2) MX=B

Résoudre le système, c’est résoudre cette équation matricielle avec

M  M pn ( K ) , et B  M pn ( K ) , il s’agit de déterminer X  M n,1 ( K )

6.4.3. Interprétation vectorielle du système

Soient E et F deux espaces vectoriels, de dimensions respectives n et p sur un même corps K

et B = ( e1 ,e2 , ,en ) , C = ( u1 , u2 , , un ) des bases respectives de E et F.

Soit, relativement à ces bases, f le morphisme de E dans F qui a pour matrice M . Si l’on
désigne par x le vecteur de E qui a pour coordonnées dans B les inconnues x1 , x2 , , xn et par

b , le vecteur de F qui a pour coordonnées donc C les seconds membres b1 , b2 , , bn le système

(1) équivaut alors a:

(3) f ( x) = b

Résoudre le système, c’est déterminer l’ensemble S des vecteurs x de E qui ont pour image le
vecteur donné b de F.

Résumé:

i) b  Im ( f )  S = 
ii) b  Im ( f ) . Le système a au moins une solution x0 et l’ensemble des solutions est :
S = x0 + Ker ( f )

6.4.4 Remarques

i) Si f est surjective ( p  n ) alors Im ( f ) = F . Tout vecteur b de F appartient à Im ( f ) .


Le système admet toujours des solutions S   .
ii) ii)Si f est injective alors dim Im(f)=dim E=n, par conséquent n  p . Si, b  Im( f ) ,
alors le système admet une unique solution puisque ker( f ) = 0

27
iii) Si f est bijective (n=p) alors le système admet une solution puisque surjectif, et une
seule puisque f est injective. On dit alors qu’on se trouve dans le cas de Cramer.

6.5. SYSTEME DE CRAMER

6.5.1. Définition

Le système (1) est dit de Cramer si les deux dimensions suivantes sont réalisées :

i) n=p
ii) M est inversible

6.5.2. Résolution d’un système de Cramer

Considérons l’équation matricielle

(2) MX = M

(4) X = M −1B constitue la solution unique de (2)

6.5.3. Calcul explicite

On sait que:

M
M −1 = , M  étant la comatrice de M
det( M )

(4) S’écrit par conséquent :

(4a) Det ( M ) X = M  B or comme la comatrice a pour terme général : cij = (−1)i + j det(Mij )

Le produit matriciel M  B est une matrice colonne dont le terme de la ligne de rang I est


n
c bj
i = j ij
(1  i  n) en identifiant terme à terme les deux matrices de Mn(K) qui

interviennent dans (4a), on obtient :

i+ j
det(M)x1 =  (−1) b j det(M n ) (1  i  n) et les formules de Cramer donnant la solution

du système sont :
28
a11 . a1 j +1 . a1n
− − − − −
an . . . ann
x1 = ; (1  i  n)
aij . ain
anj . ann

6.5.4. Exemple

Résoudre le système

3 x + 2 y − z = 0

 x− y+z =0
 x + y − 2 z = −1

Solution

 3 2 −1 
 
n = p = 3; M=  1 −1 1 
 1 1 −2 
 
det ( M ) = 7  0

1 2 −1 3 1 −1 3 2 1
0 −1 1 1 0 1 1 −1 0
−1 1 −2 1 −1 −2 1 1 −1
x= ; y= ; z=
3 2 −1 3 2 −1 3 2 −1
1 −1 1 1 −1 1 1 −1 1
1 1 −2 1 1 −2 1 1 −2

La solution du système est donc x = 0, y = 1, z = 1 ;

S R = ( 0,1,1)

6.6. SYSTEME GENERAL

Considérons le système plus général suivant :

29
 a j1 x1 + .... + air xr + .... + ain xn = b1
 ................ ............... .............


(1)  ar1 x1 + .... + an xr +....+ anr xn =br
 ............... .................. ...........

a p1 x1 + .... + a pr xr +....+ a pn xn =bp

Et essayons de le résoudre. En général, on commence par déterminer le rang du système.

6.6.1. Théorème de Fontené-Rouché

Soit un système de d’équations à n inconnues, de rang r.

i) Si r=p, le système a des solutions obtenues en attribuant des valeurs arbitraires aux
n-r inconnues non principales et en résolvant le système de Cramer aux r
inconnues principales.
ii) Si r<p et si l’un des déterminants caractéristiques sont nuls, le système se réduit
aux r équations principales. On le résout comme au i).

6.6.2. Exemples

i) Démontrer que si a, b, c sont des nombres réels.

1 1 1 1
1 1 cos c cos b
D=
1 cos c 1 cosa
1 cos b cos a 1
c b c
= − 16sin 2 sin 2 sin 2
2 2 2

1 0 0 0
1 1 cos c − 1 cos b − 1
D=
1 cos c − 1 0 cosa − 1
1 cos b − 1 cos a − 1 0

0 cos c − 1 cos b − 1
D = cos c − 1 0 cos a − 1
cos b − 1 cos a − 1 0

30
Utilisons la règle de Sarrus

D = 2 ( cos a − 1)( cosb− 1)( cosc− 1)

p+q p−q
Or on sait que : cosp− cosq = −2sin  sin ,
2 2

p p
q = 0 , il revient donc: cos p − 1 = −2sin  sin
2 2

Donc:

a a
cos a − 1 = −2sin  sin
2 2
b b
cosb − 1 = −2sin  sin
2 2
c c
cosc− 1 = −2sin  sin
2 2

a b c


D’où: D = −16sin 2   .sin 2   .sin 2  
2 2 2

ii)Résoudre dans le corps , et discuter suivants les valeurs des paramètres réels a, b, c, d le
système suivant:

 x + y + z =1

 ax + by + cz = 1
a 2 x + b 2 y + c 2 z = d 2

Calculons le déterminant du système:

1 1 1 1 0 0
b−a c−a
D= a b c = a b−a c−a = 2
b − a2 c2 − a2
a2 b2 c2 a2 b2 − a 2 c2 − a2

D = (b − a ) ( c2 − a 2 ) − ( c − a ) (b2 − a 2 )
D = ( b − a )( c − a )( c − b )

31
1er CAS

( a  b et c  a et c  b ). Le système de Cramer admet une solution unique.

1 1 1
d b c

x=
d2 b2 c2 ( c − d )( d − b )
=
( b − a )( c − a )( c − b ) ( c − a )( a − d )
1 1 1
a d c

y=
a 2
d 2
c2 ( d − c ) (a − d )
=
( b − a )( c − a )( c − b ) ( b − a )( a − b )
1 1 1
a b d

z=
a2 b2 d2 ( b − d )( d − a )
=
( b − a )( c − a )( c − b ) ( b − c )( c − a )

2ème CAS: a=b

Le système s’écrit:

 x + y + z =1 x + y + z = 1  t + z =1
  
 ax + by + cz = 1 ; ax + ay + cz = 1 Posons x+y=t  at + cz = d
a 2 x + b 2 y + c 2 z = d 2  2  a 2t + c 2 z = d 2
a x + a y + c z = d
2 2 2
 

a c
 2 2
= ac 2 − a 2c = ac ( c − a )
a c 

(2.1). Si a  c le système est de rang 2 et admet une solution unique ssi son déterminant
caractéristique est nul soit:

1 1 1
a b c = ( c− a )( d − a )( d − c ) = 0
a2 c2 d2

Comme par hypothèse c  a , il y’a une solution ssi d = a ou d = c

Si d = a , (2.1.1) le système devient:


32
 t + z =1

 at + cz = a
 a 2t + c 2 z = a 2

D’où l’on obtient:

a a
a2 a2 ac 2 − a 2 c
z= = 0 , t =
ac 2 − a 2 c ac ( c − a )

Si d=c, (2.1.2) le système devient:

 t + z =1

 at + cz = a
 a 2t + c 2 z = d 2

D’où l’on obtient:

d2 −d2 ad 2 − da 2
t= =0 , z=
ad 2 − a 2 d ad ( d − a )

(2.2). Si a=c, le système devient:

 t + z =1  t + z =1
 
 at + cz = d   a ( t + z ) = d
 a 2t + c 2 z = d 2  2
a ( t + z ) = d
2

(2.2.1). Si a=d, le système admet une solution z = 1 − t = 1 − x − y

Si a  d , le système est impossible

Résumé : 2ème Cas a=b

33
d  a et d  c Système impossible
c=a d =a système indéterminé (x=0,x=1-y)
a=b d  a et d = c système indéterminé(z=1,x=y)
c=a ad système impossible
a=d système indéterminé( z = 1 − x − y )

3ème Cas : c=a et 4ème Cas : c=b se traitent comme précédemment.

6.6.3. Système homogène

Système d’équations linéaires est dit homogène si tous les seconds membres sont nuls. Ainsi
le système (1) est homogène, si bi = 0(1  i  p ) .

Un système homogène admet toujours au moins une solution: (0, 0,...., 0)  K n que l’on
nomme solution banale.

La résolution d’un système homogène se ramène toujours à celle du système des équations
principales; en effet, les déterminants caractéristiques sont tous nuls.

Soit r le rang du système et n le nombre d’inconnues.

i) Si r=n, le système n’admet que la solution banale


ii) Si r<n, le système admet une famille de solutions en attribuant aux n-r inconnues
non principales des valeurs arbitraires.

34
CHAPITRE 7

REDUCTION D’ENDOMORPHISME

7-1 VALEURS PROPRES ET VECTEURS PROPRES

7-1-1 Définitions

Soit E, un K-espace. Pour tout endomorphisme, f  L K ( E ) , nous allons définir les éléments

propres de f.

Définition 1

On appelle vecteur propre d’un endomorphisme f  L K ( E ) tout vecteur x non nul de E tel que

f ( x ) est colinéaire à x.

En d’autres termes, un vecteur x  0 dans E est un vecteur propre de f s’il existe un scalaire
  K tel que: f ( x ) =  x

Ce scalaire est unique car  x =  ' x   =  '

Ce scalaire  se nomme valeur propre correspondant au vecteur propre x.

Ce scalaire  peut être nul. Puisque x  0 , la droite vectorielle Dx existe si x est un vecteur
propre de f et l’on a :

f ( Dx )  Dx

En effet, pour tout y  f ( Dx ) , il existe un scalaire   K tel que y = f ( x ) , d’où

y =  f ( x ) =  (  x )  Dx .

Il est facile de voir que l’on a f ( Dx ) = Dx ssi   0 .

Définition 2

35
On appelle valeur propre d’un endomorphisme f  L K ( E ) tout scalaire   K ayant la

propriété suivante : il existe dans E un vecteur non nul x tel que : f ( x ) =  x .

Ce vecteur x  0 se nomme vecteur propre correspondant à la valeur propre  .

Ce vecteur n’est pas unique, car pour tout scalaire   0 de K, le vecteur  x a la même
propriété que x .

7-1-2 Caractérisation des valeurs propres

Soit e, la coïncidence sur E, élément neutre de l’algèbre L(E). si  est une valeur propre de f et
x un vecteur propre correspondant, f ( x ) =  x  ( f − e )( x ) = 0

Par conséquent, x appartient au noyau de l’endomorphisme.

f − e  L ( E ) , x  Ker ( f − e ) et comme x  0 , le noyau ne se réduit pas à 0 . On peut

donc affirmer que l’endomorphisme ( f −  e ) n’est pas injectif, son noyau est distinct de 0 ;

il existe au moins un x  0 tel que ( f − e )( x ) = 0  f ( x ) =  x .

Par conséquent,  est valeur propre de f et x un vecteur propre correspondant.

Théorème 1

Soit E, un K-espace et f  L K ( E ) . Alors  est valeur propre de f ssi, l’endomorphisme f − e

n’est pas injectif.

Définition 3

Pour toute valeur propre  de f, le noyau Ker ( f −  e ) Se nomme sous-espace propre

correspondant à  .

Pour tout x  Ker ( f − e ) , on a f ( x ) =  x . Par conséquent, la restriction de f à Ker ( f −  e )

est une homothétie de rapport  (le rapport peut être nul).

Si F = Ker ( f − e ) est le sous-espace propre correspondant à la valeur propre  , on a

évidemment f ( F )  F .

36
Définition 4

Soit E, un K-espace et f, un endomorphisme de E. on dit qu’un sous-espace F de E est stable


par f si f ( F )  F .

Donnons des précisions sur la stabilité de sous-espace propre.

F = Ker ( f − e )

i) Si   0 , alors x  F  f ( x ) =  x  x = f (  −1 x )  x  f ( F ) et par conséquent, on

a, dans ce cas, l’égalité f ( F ) = F .

ii) Si  = 0 , alors F = Ker ( f − e ) et f ( F ) = 0  F . L’inclusion est stricte.

Supposons maintenant E de dimension finie. Alors pour que l’endomorphisme ( f −  e ) ne soit

pas injectif, il faut, et il suffit que : det ( f −  e ) = 0

Théorème 2

Soit E, un K-espace de dimension finie et f  L ( E ) Pour que le scalaire  soit une valeur

propre de f, il faut et il suffit que : det ( f −  e ) = 0

7-2 POLYNOME CARACTERISTIQUE

7-2-1 Définition

Soit E un K-espace de dimension finie et B = e1 , e2 ,..., en  une base de E. considérons un

endomorphisme, et sa matrice dans la base B.

M = ( aij ) , (1  i, j  n )

Si I n est la matrice unité d’ordre n, alors la matrice dans la base B de l’endomorphisme ( f −  e )

est ( M −  I n ) et

a11 −  a12 a1n


det ( M −  I k ) = a21 a22 −  a2 n
an1 an 2 a33 − 

37
Ce déterminant est un polynôme P (  ) , à coefficients dans K, de degré n (la variable 

parcourue k d’une manière quelconque)

Définition

P (  ) = det ( M −  I n ) se nomme polynôme caractéristique de la matrice M  M n ( K ) .

7-2-2 Invariance du polynôme caractéristique

Soit C, une autre base de E et P la matrice de passage de B à C.

( P  GL ( n, K ) )
Alors, l’endomorphisme f est représenté dans C par la matrice M ' donnée par :

M ' = P −1MP

Or cette relation entraîne dans l’algèbre M n ( K ) , comme il est facile de la vérifier.

M −  I n = P −1 ( M −  I n ) P

Et par suite,

det ( M '−  I n ) = det ( P −1 ) det ( M −  I n ) det ( P )


= det ( M −  I n )

Car det ( P −1 ) = det ( P ) par conséquent, le polynôme caractéristique de la matrice M ' de f
−1

dans la base C est identique au polynôme de la matrice D de f dans la base B.

Propriété 1

Le polynôme caractéristique d’un endomorphisme f d’un K-espace de dimension finie est


invariant dans un changement de base E.

Cette propriété justifie la définition suivante :

38
Définition

On appelle polynôme caractéristique d’un endomorphisme f  Lk ( E ) , le polynôme

caractéristique de la matrice de f dans une base quelconque de E.

7.2.3 Calcul des valeurs propres

Pour que 0 soit une valeur propre de f, il faut, et il suffit que P ( 0 ) = det ( M − 0 I n ) = 0 . C’est

à-dire que 0 soit une racine du polynôme caractéristique de f. la détermination des valeurs

propres d’un endomorphisme f d’un K-espace de dimension n équivaut donc à la recherche des
zéros du polynôme caractéristique p de degré n de K  x  .

On sait que, si un polynôme p  K  x  a un zéro pour 1 , de multiplicité h, il existe q  K  x 

tel que :

P ( x ) = ( x − 1 ) q ( x ) avec q ( 1 )  b0 si 1 , 2 ,..., r sont r zéros de multiplicités respectives


h

h1 , h2 ,..., hr il existe un polynôme q  K  x  tel que :

P ( x ) = ( x − 1 ) 1 ( x − 2 ) 2 ... ( x − r ) r q ( x ) avec q ( i )  0 où (1  i  r ) , on a alors :


h h h

h1 + h2 + ... + hr  d  ( p ) .

Il se peut que l’on ait h1 + h2 + ... + hr = d  ( p ) , alors q =   K * est une constante et

P ( x ) =  ( x − 1 ) 1 ( x − 2 ) 2 ... ( x − r ) r ,
h h h
(h + h
1 2 + ... + hr = d  ( p ) ) . On dit alors que le

polynôme p  K  x  est scindé sur K.

Définition

Soit K un corps commutatif. Un polynôme p  K  x  est dit scindé sur K s’il se décompose en

un produit de facteurs du premier degré (distinct ou non) dans K  x  . Il existe des corps K tels

que tout polynôme de K  x  soit scindé sur K.

On dit alors que K est un corps algébriquement clos.

Par exemple, est un corps algébriquement clos. Mais n’en est pas un.
39
Soit f  Lk ( E ) . Si 0  K est une racine simple du polynôme caractéristique de f, on dira que

0 est une valeur propre simple de f. Si 0 est racine de multiplicité h du polynôme


caractéristique, de f, on dira que 0 est valeur propre multiple d’ordre h de f.

7-2-4 Trace d’une matrice

Soit E, un K-espace de dimension n, f  Lk ( E ) un endomorphisme de E et M = ( aij ) , le matrice

de f dans une base de E. le polynôme caractéristique de f est : P (  ) = det ( M −  I k ) .

Développons le déterminant de M −  I k selon les éléments de la première ligne, i.e :

a11 −  a12 a1n


det ( M −  I k ) = a21 a22 −  a2 n
an1 an 2 a33 − 

Les coefficients de a12 , a13 ,..., a1n sont déterminés d’un ordre n-1 qui contiennent chacun n-2

termes du type an −  de P (  ) provenant du produit des termes de la diagonale principale

( a11 −  )( a22 −  ) ... ( ann −  ) , donc P (  ) = (1) n + ( −1) ( a11 + a22 + ... + ann )  n−1 + ...
n n −1

Définition

Pour toute matrice M  M n ( K ) , on appelle trace de M, et l’on note tr ( M ) , la somme des

éléments de sa diagonale principale.

Si M = ( aij ) , on a : tr ( M ) = a11 + a22 + ... + ann .

Remarquons maintenant que, si P est le polynôme caractéristique de M, on a P ( 0 ) = det M et

par, conséquent, P (  ) = ( −1)  n + ( −1)  n−1tr ( M ) + ... + det ( M ) .


n n −1

Nous savons que le polynôme caractéristique P reste invariant dans un changement de base. Par
conséquent,

Propriété 2

Pour toutes matrices semblables M et M ' de M n ( K ) , tr ( M ' ) = tr ( M )

40
Définition

On appelle trace d’un endomorphisme f  L ( E ) la trace de la matrice de f dans une base


quelconque de E , on note tr ( f )

Supposons maintenant que le polynôme caractéristique P de f est scindé sur K , alors P a


n zéros 1 , ... , n distincts ou non. On voit immédiatement que la somme de ces zéros est :
1 + 2 + ... + n = tr ( M ) , et que leur produit est : 1 * 2 *...* n = det ( M ) .

Exemple 1 : calculer les sous-espaces propres de la matrice de M j ( IR ) suivante :

4 6 0
 
M =  −3 −5 0 
 −3 −6 −5 
 
1) Calcul des valeurs propres
4− 6 0
Le polynôme caractéristique est P (  ) = det ( M −  ) = −3 −5 −  0
−3 −6 −5 − 

En développant le déterminant selon les éléments de la dernière colonne, on trouve :

P (  ) = − (  − 5 ) (  + 5 )(  − 4 ) + 18 = − (  + 5 )(  + 2 )(  − 1) .

Les valeurs propres sont par conséquent 1 = −5; 2 = −2; 3 = 1 .

Le polynôme P  R ( x ) est scindé sur IR et a toutes ses racines simples. Le théorème 3


 −5 0 0 
 
s’applique donc. La matrice diagonale est : M =  0 −2 0 
 0 0 1
 
2) Vecteurs propres
 x 
 
Soit un vecteur propre représenté matriciellement par X =  y  , si  est la valeur
 z 
 
propre correspondante, on a : ( M −  ) X = 0

( 4 −  ) x + 6 y = 0

Soit −3x − ( 5 +  ) y = 0

−3x − 6 y − ( 5 +  ) z = 0

a) Sous-espace propre correspondant à 1 = −5

41
9 x + 6 y = 0

Le système (1) s’écrit: −3x = 0
−3 − 6 y = 0

Les solutions sont x = y = 0 et Z arbitraire. Le sous-espace propre est donc la droite
 0 
vectorielle engendrée par X 1 =  0


 1 
 

b) Sous-espace propre correspondant à 2 = −2


Le système (1) s’écrit :

6 x + 6 y = 0

−3x − 3 y = 0
−3x − 6 y − 3z = 0

Les solutions sont x = − y = z . Le sous-espace propre est donc la droite vectorielle engendrée
 1 
 
par X 1 =  −1 
 1 
 

c) Sous-espace propre correspondant à 3 = 1


Le système (1) s’écrit:

6 x + 6 y = 0

−3x − 3 y = 0
−3x − 6 y − 3z = 0

Les solutions sont x = −2 et z = 0 . Le sous-espace propre est donc la droite vectorielle
 2 
 
engendrée par X 1 =  −1 
 0 
 

Exemple 2 : calculer les sous-espaces propres de la matrice de M 3 ( IR ) suivante :

 3 2 0
 
M =  −1 0 0 
 0 0 1
 

1) Valeurs propres

42
Le polynôme caractéristique est :

3− 2 0
0 = − (1 −  ) (  − 2 )
2
−1 −
0 0 1− 

Ce polynôme est scindé sur IR . Il a une valeur propre double 1 et une valeur propre simple 2.
2) Vecteurs propres
a) Pour la valeur propre 1, il faut résoudre :

2 x + 2 y = 0

x − y = 0
0 z = 0

Les solutions sont ( x, − x, z ) et dépendent de deux scalaires arbitraires x et z . Le sous-espace


propre est alors de dimension 2 ; on peut prendre pour base de ce sous-espace u1 = ( 0,0,1) ,
u2 = (1, −1,0 ) .

b) Pour la valeur propre 2, il faut résoudre :

x + 2 y = 0

− x − 2 y = 0
− z = 0

Les solutions sont ( −2 y, y,0 ) . Le sous-espace propre correspondant est de dimension 1 ; on


peut prendre pour base de ce sous-espace u1 = ( −2,1,0 ) .

43

Vous aimerez peut-être aussi