Académique Documents
Professionnel Documents
Culture Documents
Définition 4
On dit qu’une matrice M M n ( K ) est inversible ou régulière s’il existe une matrice de
Théorème 4
Considérons dans un espace vectoriel E de dimension n sur un corps K, deux bases distinctes:
B = e1 , e2 , , en
C = u1 , u2 , , un
Problème
coordonnées x1, x2 , , xn de ce même vecteur dans la base C. Il existe un endomorphisme f
( i ) f ( ei ) = i =1 aij ei
n
P = ( aij ) GL ( n, K ) (groupe linéaire à n variables sur le corps K). On sait que dans
1
n
( 2) x = x1e1 + + xn en = xi ei
i =1
n
( 3) x = x1u1 + + xn un = xiui ;
i =1
( a e )= ( a x ) e
n
( 3 ) x = xi
n n n '
i ij i i =1 i ij i i
i =1
xi = i =1 aij xj (1 i n )
n
Ces n relations expriment les coordonnées de x dans l’ancienne base B en fonction des
coordonnées de x dans la nouvelle base C.
x1 x1'
'
x x
Posons: X = , , X = 2
2
xn x'
n
La relation (4) peut alors s’exprimer sous la forme matricielle, ce qui donne: X = PX
4.6.1. Définition
2
M = ( aij ) , , (1 i p, 1 j n )
M ' = ( a ji )
1 2 2
M = 0 1 6
2 1 8
0 1 0
N = 2 1 5
7 0 4
Soit ,
Calculer: M , N; M + N ; ( M + N ) '; M , N ; M + N
Comparer : ( M + N ) ' et M + N
2 2 0 0
M = 0 6 ;
N = 2 5
2 8 7 0 4
2 + 2
M + N = 2 + 6 + 5
2 + 7 8 + 4
2 2 + 7
( M + N ) ' = 2 + +
2 6 + 5 8 + 4
1 0 2 2 2
M = 2 1 1 = 0 6
2 6 8 2 8
0 2 7 0 2 7
N = 1 1 0 =
0
0 5 4 0 5 4
2 2 + 7
M + N = 2 + +
2 6 + 5 8 + 4
( M + N ) ' = M + N
3
(ii) Transposée d’un produit:
0 1 2 1 2 3 4 3 22
NM = 2 1 5 0 1 6 = 12 10 52
7 0 4 2 1 8 15 18 53
4 12 15
( NM ) ' = 3 10 18
22 52 53
1 0 2 0 2 7
M = 2 1 1 ; N = 1 1 0
3 6 8 2 5 4
1 0 2 0 2 7 4 12 15
M N = 2 1 1 1 1 0 = 3 10 18
3 6 8 2 5 4 22 52 53
( NM ) ' = M N
Pour qu’une matrice carrée M soit inversible, il faut et il suffit que t M le soit.
4
1 2 2
M = 0 1 6
2 1 8
( M) ,M (M )
t t −1 −1 −1
Calculer M, ,
( M ) ?( M )
t t −1
1 0 2 1 0 2 1 0 0
1 −3
M = 2 1 1 = N;
t t
M = 2 1 1 = 2 1 −3 =
2 6 8 6 4
2 6 8 2 6 4
Calculer déterminant
Det ( N ) =Det t M = 4 + 18 = 22 0
−1 N
N = où N est la comatrice de N
Det ( N )
1 0 2
N= 2 1 1
2 6 8
5
2 12 −2
Comatrice de N noté N = N = −14 4 3
10 −6 1
2 12 −2
1
N = ( M ) = −14 4 3
−1 −1
22
10 −6 1
1 6 1
11 −
11 11
7 2 3
N −1 = ( M ) = −
−1
11 11 22
5 −
3 1
11 11 22
1 2 2
1 6
M = 0 1 6 = = 4 + 18 = 22
−3 4
2 1 8
det ( M ) = det ( M ) = 22
1
M −1 = .M , avec M comatrice de M.
det ( M )
N = ( bij ) , bij = ( −1)
i+ j
M ij , avec M ij sous matrice de M obtenue en supprimant la i ème ligne et la jème colonne.
2 12 −2 2 −14 10
N= −14 4 3 , M = N = 12
4 −6
10 −6 1 −2 3 1
2 −14 10
−1 1
M = 12 4 −6
22
−2 3 1
1 7 5
11 − 11 11
6 2 3
M −1 = −
11 11 11
− 1 3 1
11 22 22
M −1 = ( M−1 ) ou ( M ) = ( M −1 ) '
−1
6
CHAPITRE 5: DETERMINANTS
5.1.1. Définition
Soit E, F, G trois espaces vectoriels sur le même corps K. Une application f de E F dans G
est dite bilinéaire si, x, x E , y, y F et a K
f ( xa, y ) = f ( x, ay ) = af ( x, y )
f ( x + x, y ) = f ( x, y ) + f ( x, y )
f ( x, y + y ) = f ( x, y ) + f ( x , y )
Définition 2
Propriété 1
7
5.1.4. Cas où Dim E=2
Etudions à présent les applications bilinéaires alternées dans le cas où dim E=2 sur le corps K,
G étant quelconque. Introduisons les déterminants du second ordre.
Théorème 1
Soit E et G deux espaces vectoriels sur le corps K et dim E=2. Pour toute base e1 , e2 de E et
tout vecteur k de G, il existe une application bilinéaire alternée, et une seule, f de E 2 dans G
telle que f (e1 , e2 ) = k .
Preuve
x = x1e1 + x2e2
y = y1e1 + y2e2
i) Unicité
f ( e1 , e1 ) = f ( e2 , e2 ) = 0
f ( e1 , e2 ) = f ( e2 , e1 )
Ce qui prouve, que si l’application bilinéaire alternée f de l’énoncé existe, elle coïncide
avec (i) f ( x, y) = x1 y2 − x2 y1 k
ii) Existence
Prouvons que l’application f de E 2 dans G définie par (1) est bien bilinéaire alternée. Pour y
fixé dans E, on a en effet, x, x, x E et a, a, x K
8
f (ax + ax, y ) = (ax1 + ax1) y2 − (ax2 + ax2 ) y1 k
=a( x1 y2 − x2 y1 )k + a( x1 y2 − x2 y1 )k
=af ( x, y ) + af ( x, y )
Par conséquent, f ( x, y) est linéaire en x. De la même façon, on peut prouver que f(.) est
linéaire en y, x étant fixé. Enfin, f est alternée, car :
x1 y1
x2 y2
x1 y1
D ( x, y ) = x1 y2 − x2 y1 =
x2 y2
Preuve 1
a c a b a b
M = M '= M ' = = ad − cb
b d c d c d
a c
Det ( M ) = = ad − bc = M '
b d
9
Définition 3
ii) f ( x, y, z ) = 0 dès que deux des trois vecteurs coïncident. En d’autres termes, si
l’on fixe l’un quelconque des trois vecteurs, l’application f est bilinéaire en les
deux autres.
Nous allons étudier les déterminants d’ordre 3 lorsque dim E=3 sur le corps K, l’espace
vectoriel G étant quelconque sur K.
Théorème 2
Soit E et G deux espaces vectoriels sur K, dim E=3. Pour toute base e1 , e2 , e3 de E et tout
vecteur k de G, il existe une application trilinéaire alternée, et une seule, f de E dans G telle
que e1 , e2 , e3 = k .
Preuve
i) Unicité
Soit f une application trilinéaire alternée de E 3 dans G, dans la base e1 , e2 , e3 désignons par
x = x1e1 + x2 e2 + x3e3 = i =1 xi ei
3
y = y1e1 + y2 e2 + y3e3 = i =1 yi ei
3
z = z1e1 + z2 e2 + z3e3 = i =1 zi ei
3
10
f ( x, y , z ) = f ( i =1 i i i =1 i i i =1 i i
3
xe,
3
ye, ze
3
)
= ( xi , y j , zk ) f ( ei , e j , ek )
La somme étant étendue à tous les indices i,j,k pris arbitrairement dans (1,2,3). Il y’a donc
33 = 27 termes dans cette somme. On sait que f ( e1 , e2 , e3 ) = 0 dès que deux indices sont
égaux. Il ne reste à considérer que les termes de la sommation où les trois indices i,j,k sont
distincts, c’est à dire ( i, j , k ) est l’image de (1,2,3) par une permutation.
Il y’a 3! = 6 termes de la sorte, (les 27-6 autres sont certainement nuls). Prouvons que les
f ( e1 , e2 , e3 ) correspondants s’expriment tous en fonction de :
k = f ( e1 , e2 , e3 )
f ( e2 , e1 , e3 ) = f ( e1 , e3 , e2 ) = f ( e3 , e2 , e1 ) = k
f ( e2 , e3 , e1 ) = − f ( e2 , e1 , e3 ) = − k
f ( e3 , e1 , e2 ) = f ( e1 , e3 , e2 ) = − k
(2) f ( x, y, z ) = ( x1 y2 z3 + x2 y3 z1 + x2 y1 z2 − x2 y1 z3 − x1 y3 z2 − x3 y2 z1 ) k
ii) Existence
Soit f de E 3 dans G définie par (2). Prouvons que f est bien bilinéaire alternée.
11
f ( a x, y, z ) = af ( x, y, z )
Comme les coordonnées de x + x sont x1 + x1 , x2 + x2 , x3 + x3 alors on obtient en remplaçant
linéarité en y ou z, enfin si deux des trois vecteurs x, y , z sont égaux, alors la relation (2)
Choisissons pour vecteur k l’élément 1 du corps K, il existe alors une forme trilinéaire
alternée f, et une seule, telle f ( e2 , e1 , e3 ) = 1 . Pour une telle forme, f ( x, y, z ) se nomme
x1 y1 z1
D ( x, y, z ) = x2 y2 z2 = x1 y2 z3 + x2 y3 z1 + x3 y1 z2 − x3 y2 z1 − x2 y1 z3 − x1 y3 z 2
x3 y3 z3
x1 y1 z1
A = x2 y2 z2
x y z
3 3 3
DetA = ( x1 y2 z3 + x2 y3 z1 + x3 y1 z2 ) − ( x3 y2 z1 + y3 z2 x1 + z3 y1 x2 )
Re gle de Sarrus
Exemple
12
Puis comparer
On peut factoriser dans un déterminant un facteur commun aux éléments d’une rangée.
Puis comparer
Si les éléments d’une rangée sont des sommes, on peut mettre le déterminant sous la forme
d’une somme de déterminants.
Puis comparer
a a ' ma + na '
b b ' mb + nb ' = 0
c c ' mc + nc '
Si une ligne (ou colonne) est combinaison linéaire des autres, le déterminant est nul
a a ' a
b b ' b = a ' ( b '' c − bc '' ) + b ' ( ac ''− a '' c ) + c ' ( a '' b − ab ")
c c ' c
13
On peut écrire:
a a ' a
b b" a a" a a"
b b ' b = −a ' +b' −c'
c c" b b" b b"
c c ' c
On dit qu’on a développé le déterminant selon les termes de la seconde colonne. Les
coefficients de a ', b ', c ' sont nommés cofacteurs de ces éléments.
5.3.1. Définition 4
(x , x ,
1 2 , x p ) → f ( x1 , x2 , , x p ) est dite n linéaire si elle est linéaire en chacun des p
vecteurs x1 , x2 , , x p . En d’autres termes, pour tout indice i 1, , p et pour tout choix des
5.3.2. Définition 5
i = j f ( x1 , x2 , , xp ) = 0
Théorème 3 (fondamental)
Soit E et F deux espaces vectoriels sur le corps K et dim E=p. Pour toute base (e1 , e2 ..........ep )
f ( e1 , e2 , , ep ) = k
14
5.3.4. Déterminant d’une matrice de Mp(k)
a11 a12 . . a1 p
a21 a22 . . a2 p
M = . . . . .
. . . . .
a ap2 . . a pp
p1
a11 a12 . . a1 p
a21 a22 . . a2 p
Det ( M ) = . . . . .
. . . . .
a p1 a p 2 . . a pp
Théorème 4
Quelles que soient les matrices carrées A et B de même ordre, det( BA) = det( B) det( A) .
Théorème 5
15
Soit M = ( aij ) une matrice de Mp(K), si l’on désigne par M ij la matrice de Mp,i(K) déduite
5.5.1. Exemples
a b c d
b c d a c d a b d a b c
a' b' c' d'
= −a "' b ' c' d ' + b "' a ' c' d ' − c "' a ' b' d ' + d "' a ' b' c'
a" b" c" d"
b" c" d " a" c" d " a" b" d " a " b " c"
a "' b "' c "' d "'
Det (T ) = a11a22 a pp
Le déterminant d’une matrice triangulaire est égal au produit des éléments de sa diagonale
principale.
5.6. COMATRICE
5.6.1 Définition
Soit M = ( aij ) une matrice Mp(K), définissons d’abord la matrice N = (bij ) de Mp(K) par
bij = (−1)i + j det( M ij ) . M ij étant la matrice déduite de M par la suppression de la ligne de rang
16
Exemple 2
1 0 2
M = 0 −2 1
0 3 0
−2 1 0 1
b11 = = −3 ; b12 = − =0
3 0 0 0
0 −2 0 2
b13 = =0 ; b21 = − = −6
0 3 3 0
1 2 1 0
b22 = =0 ; b23 = − = −3
0 0 0 3
0 2 1 2
b31 = =4 ; b32 = − = −1
−2 1 0 1
1 0
b33 = = −2
0 −2
Par conséquent,
−3 0 0
N = 6 0 −3 matrice des cofacteurs.
4 −1 −2
−3 6 4
M = N ' = 0 0 −1
0 −3 −2
Théorème 6
Preuve
Soit M = (aij ) . Posons : bij = (−1)i + j det(Mij ) et b 'ij = bij . On a alors M = (b 'ij )
17
avec ckj = j =i bij aij
p
Par définition du produit de deux matrices, on a : M M = (ckj )
par les éléments a1 j , a2 j , , a pj de la colonne j (que nous notons a '1k , a '2 k , , a ' pk . D’après le
j k ckj = 0
j = k ckj = det(M )
M M = det(M ) I p .
Théorème 7
M'
det ( M ) 0 . On a alors M −1 =
det ( M )
Preuve
18
Supposons M ensemble. Il existe alors M telle que MM −1 = I p
Appliquons le théorème 4 :
det( M ) det( M −1 ) = I
Suffisance
D’après le théorème 6, on a:
M M = det ( M ) I p
M'
Supposons det( M ) 0 . Alors, M −1 =
det( M )
Exemple 3
1 6 2
La matrice: M = 0 −2 1 est inversible puisque det ( M ) = −3 0 . Son inverse est:
0 3 0
−3 6 4
−1 M' −1
M = = 0 0 −1
det ( M ) 3
0 −3 −2
Exemple 4
19
Décomposer en un produit de facteurs les déterminants suivants:
Exemple 5
Prouver l’égalité
(b + c )
2
b2 c2
(c + a) = 2abc ( a + b + c )
2 3
a2 c2
(a + b)
2
a2 b2
Exemple 6
Démontrer la relation:
−a b c d
b −a d c
= − ( a + b + c − d )( b + c + d − a )
c d −a b
d c b −a
= ( c + d + a − b )( d + a + b − c )
1) Etablir la relation
1 a a2 a3
1 b b2 b3
= ( d − a )( d − b )( d − c )( c − a )( c − b )( b − a )
1 c c2 c3
1 d d2 d3
On pourra remarquer que le déterminant est le polynôme en d degrés 3 dont a, b, c sont des
racines. Il existe alors un scalaire k tel que le déterminant soit égal à k (d − a)(d − b)(d − c) .
20
On prouvera que k est le déterminant obtenu à partir du précédent en supprimant la dernière
ligne et la dernière colonne (ce nouveau déterminant étant encore de Vander Monde).
21
CHAPITRE 6 : THEORIE DU RANG- EQUATIONS LINEAIRES
Définition 1
donc égal au cardinal de la base du sous-espace engendré par E’, que l’on peut extraire de la
famille.
Définition 2
Soit E et F deux espaces vectoriels de dimension finie sur le même corps K et f une
application de E dans F. On appelle rang de f, et l’on note rg(f) la dimension du sous-espace
f(E), l’image de E par f dans F.
Définition 3
a11 . . a1n
. . . .
M =
. . . .
a p1 . . a pn
On appelle rang de la matrice M, et l’on note rg(M), le rang de la famille des n vecteurs-
colonnes dans l’espace vectoriel K D , linéairement indépendants.
22
6.1.4. Calcul du rang d’une application linéaire
Théorème 1
démonstration).
Corollaire 1
Théorème 2
Le rang d’une famille de vecteurs d’un espace vectoriel E de dimension finie est égal au rang
de la matrice des coordonnées de ces vecteurs dans une base quelconque de E.
Théorème 3
Dans un espace vectoriel de dimension n sur un corps K, les trois propositions suivantes sont
équivalentes :
ii) La matrice M est coordonnée des vecteurs x1 , x2 , , xn dans une base de E est
inversible.
iii) Le rang de M est rg(M)=n
Preuve
Corollaire
23
Toute matrice M 0 a un même rang que sa transposée rg ('M) = rg(M)
Théorème 4
Dans un espace vectoriel F de dimension p, pour qu’une famille de n vectoriel soit libre, il
faut et il suffit que l’on puisse extraire, de la matrice de ces vecteurs dans une base
quelconque de F, une matrice d’ordre n inversible.
6.3.2 Exemple
1 0 −1
0 1 0
M =
0 1 1
1 0 3
1 1 0
On trouve det( M 1 ) = 0 1 1 = 1 0
1 0 3
0 1 0
det( M 2 ) = 0 1 1 = (0 + 0 + 1) − (0 + 0 + 0) = 1 0
1 0 3
24
Soit B = e1 , e2 ,...., en une base quelconque de E. Considérons une famille n de vecteurs
f ( e1 ) = x1 , , f ( en ) = xn
Pour que x1 , x2 , , xn soit libre, il faut et il suffit que f soit injective, ce qui équivaut à
sont équivalentes. x1 , x2 , , xn est une famille libre si, et seulement si, l’espace engendré
par cette famille est l’espace E tout entier (puisque dim E=n) et, par conséquent, le rang de
cette famille vaut n.
D’après le théorème 2, ceci équivaut à rg(M)=n. Par conséquent, les propositions i) et ii) sont
équivalentes. Le théorème est démontré.
toute matrice déduite de M par suppression de lignes ou de colonnes. Nous nous intéressons
ici aux matrices carrées extraites de M .
Théorème 4
Pour toute matrice M 0 , le rang de M est le plus grand entier r tel qu’il existe une matrice
carrée inversible d’ordre r extraite de M .
a11 a1r
a1n
M = a2 r a1r
a p1 a pn
25
6.4. EQUATIONS LINEAIRES
6.4.1. Définitions
Les éléments aij de K sont nommés coefficients. Les éléments b1 de K nommés seconds
équations du système.
Résoudre le système, c’est déterminer l’ensemble des solutions (ensemble qui peut
éventuellement être vide).
Posons
b1 x1
a11 a1n
b2 x2
M = a21 a2 n ; B= ; x=
a a pn
p1
bp xp
26
(2) MX=B
Soit, relativement à ces bases, f le morphisme de E dans F qui a pour matrice M . Si l’on
désigne par x le vecteur de E qui a pour coordonnées dans B les inconnues x1 , x2 , , xn et par
(3) f ( x) = b
Résoudre le système, c’est déterminer l’ensemble S des vecteurs x de E qui ont pour image le
vecteur donné b de F.
Résumé:
i) b Im ( f ) S =
ii) b Im ( f ) . Le système a au moins une solution x0 et l’ensemble des solutions est :
S = x0 + Ker ( f )
6.4.4 Remarques
27
iii) Si f est bijective (n=p) alors le système admet une solution puisque surjectif, et une
seule puisque f est injective. On dit alors qu’on se trouve dans le cas de Cramer.
6.5.1. Définition
Le système (1) est dit de Cramer si les deux dimensions suivantes sont réalisées :
i) n=p
ii) M est inversible
(2) MX = M
On sait que:
M
M −1 = , M étant la comatrice de M
det( M )
(4a) Det ( M ) X = M B or comme la comatrice a pour terme général : cij = (−1)i + j det(Mij )
Le produit matriciel M B est une matrice colonne dont le terme de la ligne de rang I est
n
c bj
i = j ij
(1 i n) en identifiant terme à terme les deux matrices de Mn(K) qui
i+ j
det(M)x1 = (−1) b j det(M n ) (1 i n) et les formules de Cramer donnant la solution
du système sont :
28
a11 . a1 j +1 . a1n
− − − − −
an . . . ann
x1 = ; (1 i n)
aij . ain
anj . ann
6.5.4. Exemple
Résoudre le système
3 x + 2 y − z = 0
x− y+z =0
x + y − 2 z = −1
Solution
3 2 −1
n = p = 3; M= 1 −1 1
1 1 −2
det ( M ) = 7 0
1 2 −1 3 1 −1 3 2 1
0 −1 1 1 0 1 1 −1 0
−1 1 −2 1 −1 −2 1 1 −1
x= ; y= ; z=
3 2 −1 3 2 −1 3 2 −1
1 −1 1 1 −1 1 1 −1 1
1 1 −2 1 1 −2 1 1 −2
S R = ( 0,1,1)
29
a j1 x1 + .... + air xr + .... + ain xn = b1
................ ............... .............
(1) ar1 x1 + .... + an xr +....+ anr xn =br
............... .................. ...........
a p1 x1 + .... + a pr xr +....+ a pn xn =bp
i) Si r=p, le système a des solutions obtenues en attribuant des valeurs arbitraires aux
n-r inconnues non principales et en résolvant le système de Cramer aux r
inconnues principales.
ii) Si r<p et si l’un des déterminants caractéristiques sont nuls, le système se réduit
aux r équations principales. On le résout comme au i).
6.6.2. Exemples
1 1 1 1
1 1 cos c cos b
D=
1 cos c 1 cosa
1 cos b cos a 1
c b c
= − 16sin 2 sin 2 sin 2
2 2 2
1 0 0 0
1 1 cos c − 1 cos b − 1
D=
1 cos c − 1 0 cosa − 1
1 cos b − 1 cos a − 1 0
0 cos c − 1 cos b − 1
D = cos c − 1 0 cos a − 1
cos b − 1 cos a − 1 0
30
Utilisons la règle de Sarrus
p+q p−q
Or on sait que : cosp− cosq = −2sin sin ,
2 2
p p
q = 0 , il revient donc: cos p − 1 = −2sin sin
2 2
Donc:
a a
cos a − 1 = −2sin sin
2 2
b b
cosb − 1 = −2sin sin
2 2
c c
cosc− 1 = −2sin sin
2 2
ii)Résoudre dans le corps , et discuter suivants les valeurs des paramètres réels a, b, c, d le
système suivant:
x + y + z =1
ax + by + cz = 1
a 2 x + b 2 y + c 2 z = d 2
1 1 1 1 0 0
b−a c−a
D= a b c = a b−a c−a = 2
b − a2 c2 − a2
a2 b2 c2 a2 b2 − a 2 c2 − a2
D = (b − a ) ( c2 − a 2 ) − ( c − a ) (b2 − a 2 )
D = ( b − a )( c − a )( c − b )
31
1er CAS
1 1 1
d b c
x=
d2 b2 c2 ( c − d )( d − b )
=
( b − a )( c − a )( c − b ) ( c − a )( a − d )
1 1 1
a d c
y=
a 2
d 2
c2 ( d − c ) (a − d )
=
( b − a )( c − a )( c − b ) ( b − a )( a − b )
1 1 1
a b d
z=
a2 b2 d2 ( b − d )( d − a )
=
( b − a )( c − a )( c − b ) ( b − c )( c − a )
Le système s’écrit:
x + y + z =1 x + y + z = 1 t + z =1
ax + by + cz = 1 ; ax + ay + cz = 1 Posons x+y=t at + cz = d
a 2 x + b 2 y + c 2 z = d 2 2 a 2t + c 2 z = d 2
a x + a y + c z = d
2 2 2
a c
2 2
= ac 2 − a 2c = ac ( c − a )
a c
(2.1). Si a c le système est de rang 2 et admet une solution unique ssi son déterminant
caractéristique est nul soit:
1 1 1
a b c = ( c− a )( d − a )( d − c ) = 0
a2 c2 d2
a a
a2 a2 ac 2 − a 2 c
z= = 0 , t =
ac 2 − a 2 c ac ( c − a )
t + z =1
at + cz = a
a 2t + c 2 z = d 2
d2 −d2 ad 2 − da 2
t= =0 , z=
ad 2 − a 2 d ad ( d − a )
t + z =1 t + z =1
at + cz = d a ( t + z ) = d
a 2t + c 2 z = d 2 2
a ( t + z ) = d
2
33
d a et d c Système impossible
c=a d =a système indéterminé (x=0,x=1-y)
a=b d a et d = c système indéterminé(z=1,x=y)
c=a ad système impossible
a=d système indéterminé( z = 1 − x − y )
Système d’équations linéaires est dit homogène si tous les seconds membres sont nuls. Ainsi
le système (1) est homogène, si bi = 0(1 i p ) .
Un système homogène admet toujours au moins une solution: (0, 0,...., 0) K n que l’on
nomme solution banale.
La résolution d’un système homogène se ramène toujours à celle du système des équations
principales; en effet, les déterminants caractéristiques sont tous nuls.
34
CHAPITRE 7
REDUCTION D’ENDOMORPHISME
7-1-1 Définitions
Soit E, un K-espace. Pour tout endomorphisme, f L K ( E ) , nous allons définir les éléments
propres de f.
Définition 1
On appelle vecteur propre d’un endomorphisme f L K ( E ) tout vecteur x non nul de E tel que
f ( x ) est colinéaire à x.
En d’autres termes, un vecteur x 0 dans E est un vecteur propre de f s’il existe un scalaire
K tel que: f ( x ) = x
Ce scalaire peut être nul. Puisque x 0 , la droite vectorielle Dx existe si x est un vecteur
propre de f et l’on a :
f ( Dx ) Dx
y = f ( x ) = ( x ) Dx .
Définition 2
35
On appelle valeur propre d’un endomorphisme f L K ( E ) tout scalaire K ayant la
Ce vecteur n’est pas unique, car pour tout scalaire 0 de K, le vecteur x a la même
propriété que x .
Soit e, la coïncidence sur E, élément neutre de l’algèbre L(E). si est une valeur propre de f et
x un vecteur propre correspondant, f ( x ) = x ( f − e )( x ) = 0
donc affirmer que l’endomorphisme ( f − e ) n’est pas injectif, son noyau est distinct de 0 ;
Théorème 1
Définition 3
correspondant à .
évidemment f ( F ) F .
36
Définition 4
F = Ker ( f − e )
Théorème 2
Soit E, un K-espace de dimension finie et f L ( E ) Pour que le scalaire soit une valeur
7-2-1 Définition
M = ( aij ) , (1 i, j n )
est ( M − I n ) et
37
Ce déterminant est un polynôme P ( ) , à coefficients dans K, de degré n (la variable
Définition
( P GL ( n, K ) )
Alors, l’endomorphisme f est représenté dans C par la matrice M ' donnée par :
M ' = P −1MP
M − I n = P −1 ( M − I n ) P
Et par suite,
Car det ( P −1 ) = det ( P ) par conséquent, le polynôme caractéristique de la matrice M ' de f
−1
Propriété 1
38
Définition
Pour que 0 soit une valeur propre de f, il faut, et il suffit que P ( 0 ) = det ( M − 0 I n ) = 0 . C’est
à-dire que 0 soit une racine du polynôme caractéristique de f. la détermination des valeurs
propres d’un endomorphisme f d’un K-espace de dimension n équivaut donc à la recherche des
zéros du polynôme caractéristique p de degré n de K x .
tel que :
h1 + h2 + ... + hr d ( p ) .
P ( x ) = ( x − 1 ) 1 ( x − 2 ) 2 ... ( x − r ) r ,
h h h
(h + h
1 2 + ... + hr = d ( p ) ) . On dit alors que le
Définition
Soit K un corps commutatif. Un polynôme p K x est dit scindé sur K s’il se décompose en
un produit de facteurs du premier degré (distinct ou non) dans K x . Il existe des corps K tels
Par exemple, est un corps algébriquement clos. Mais n’en est pas un.
39
Soit f Lk ( E ) . Si 0 K est une racine simple du polynôme caractéristique de f, on dira que
Les coefficients de a12 , a13 ,..., a1n sont déterminés d’un ordre n-1 qui contiennent chacun n-2
( a11 − )( a22 − ) ... ( ann − ) , donc P ( ) = (1) n + ( −1) ( a11 + a22 + ... + ann ) n−1 + ...
n n −1
Définition
Nous savons que le polynôme caractéristique P reste invariant dans un changement de base. Par
conséquent,
Propriété 2
40
Définition
4 6 0
M = −3 −5 0
−3 −6 −5
1) Calcul des valeurs propres
4− 6 0
Le polynôme caractéristique est P ( ) = det ( M − ) = −3 −5 − 0
−3 −6 −5 −
P ( ) = − ( − 5 ) ( + 5 )( − 4 ) + 18 = − ( + 5 )( + 2 )( − 1) .
( 4 − ) x + 6 y = 0
Soit −3x − ( 5 + ) y = 0
−3x − 6 y − ( 5 + ) z = 0
41
9 x + 6 y = 0
Le système (1) s’écrit: −3x = 0
−3 − 6 y = 0
Les solutions sont x = y = 0 et Z arbitraire. Le sous-espace propre est donc la droite
0
vectorielle engendrée par X 1 = 0
1
6 x + 6 y = 0
−3x − 3 y = 0
−3x − 6 y − 3z = 0
Les solutions sont x = − y = z . Le sous-espace propre est donc la droite vectorielle engendrée
1
par X 1 = −1
1
6 x + 6 y = 0
−3x − 3 y = 0
−3x − 6 y − 3z = 0
Les solutions sont x = −2 et z = 0 . Le sous-espace propre est donc la droite vectorielle
2
engendrée par X 1 = −1
0
3 2 0
M = −1 0 0
0 0 1
1) Valeurs propres
42
Le polynôme caractéristique est :
3− 2 0
0 = − (1 − ) ( − 2 )
2
−1 −
0 0 1−
Ce polynôme est scindé sur IR . Il a une valeur propre double 1 et une valeur propre simple 2.
2) Vecteurs propres
a) Pour la valeur propre 1, il faut résoudre :
2 x + 2 y = 0
x − y = 0
0 z = 0
x + 2 y = 0
− x − 2 y = 0
− z = 0
43