Vous êtes sur la page 1sur 12

Christophe Bertault — Mathématiques en MPSI

R EPRÉSENTATION MATRICIELLE DES APPLICATIONS LINÉAIRES

Dans ce chapitre, est l’un des corps ou . Tous les résultats présentés dans ce chapitre demeurent vrais si est un

désignent des entiers naturels non nuls.

corps quelconque, mais nous ne nous en préoccuperons pas ici. Les lettres n, p , q

1 R APPELS SUR LA MATRICE D UNE FAMILLE DE VECTEURS DANS UNE BASE

Pour plus de détails, refaites donc un tour du côté de notre précédent chapitre « Structure d’espace vectoriel ».

Définition (Matrice d’une famille finie de vecteurs dans une base finie) x x j x
Définition (Matrice d’une famille finie de vecteurs dans une base finie)
x
x j
x j
1
Soient E un -espace vectoriel de dimension finie n, = ( e 1 , , e n )
a 11 ···
··· a 1 p
← e
a 1 j
1
une base de E et = ( x 1 , , x p ) une famille finie de vecteurs de E .
.
.
.
.
.
.
Pour tout j ∈ 1, p
. La matrice a i j
on note ( a 1 j , , a nj ) les coordonnées de
x j dans
.
.
.
p , notée Mat ( ), est alors appelée matrice
1
i
n
Mat ( )=  a i 1
···
···
a i j
a i p 
← e
i
1 j
.
.
.
de dans .
.
.
.
.
.
.
a n1 ···
···
← e
a nj
a np
n
Coordonnées de x j dans écrites en colonne

Exemple Soient E un -espace vectoriel de dimension finie et une base de E . Alors pour tout x E , Mat ( x ) est tout simplement la colonne des coordonnées de x dans .

Théorème (Interprétation vectorielle de l’inversibilité, cas des familles de vecteurs) Soient E un -espace vectoriel de dimension finie n, une base de E et une famille de n vecteurs de E . Alors est une base de E si et seulement si Mat ( ) est inversible.

Rappelons que le rang d’une matrice peut être défini de deux manières — soit comme le rang de la famille de ses colonnes, soit comme le rang de l’application linéaire canoniquement associée.

Théorème (Rang d’une famille de vecteurs, rang d’une matrice associé e) Soient E = 0 E un -espace vectoriel

de dimension finie, une base de E et une famille finie de vecteurs de E . Alors : rg ( ) = rg Mat ( ) .

En pratique Tout rang d’une famille de vecteurs peut donc être calculé co mme le rang d’une matrice grâce à l’algorithme du pivot.

Démonstration

Introduisons les vecteurs de et : = ( e 1 , , e n ) et = ( x 1 , , x p ), ainsi que

les colonnes C 1 , , C p de Mat ( ) et ϕ l’isomorphisme (λ i ) 1 i n −→

n

λ i e i de n sur E .

Pour tout j 1, p :

ϕ ( C j )= x j ,

donc ϕ

Vect ( C 1 , ,

i = 1

C p ) est un isomorphisme de Vect ( C 1 , , C p ) sur Vect( ),

donc : rg ( ) = dim Vect( ) = dim Vect( C 1 ,

, C p ) = rg ( C 1 ,

, C p ) = rg Mat ( ) .

1

Christophe Bertault — Mathématiques en MPSI

2 M ATRICE D UNE APPLICATION LINÉAIRE DANS DES BASES

f ( e 1 ) f ( e j ) f ( e p )
f ( e 1 )
f
( e j )
f
( e p
)
Définition (Matrice d’une application linéaire dans des bases finies)
Soient E et F deux -espaces vectoriels de di-
a 11 ···
···
← f 1
mensions respectives p et n, = ( e 1 ,
, e p ) une
a 1 j
a 1 p
.
.
.
base de E , = ( f 1 ,
, f n ) une base de F et
.
.
.
.
.
.
f ∈ ( E , F ).
On appelle matrice de f dans et
Mat , ( f ) = Mat f ( )
···
···
=  a i 1
a i p 
← f i
et on note Mat , ( f ) la matrice de la famille
a i j
.
.
.
f ( )= f ( e 1 ), , f ( e p ) dans la base .
.
.
.
.
.
.
Si :
E = F
et
= ,
la matrice
a n1 ···
··· a np
← f n
a nj
Mat , ( f ) est simplement notée Mat ( f ).
Coordonnées de f ( e j ) dans
écrites en colonne

Explication

donc on connaît tout d’une application linéaire quand on connaît sa matrice dans deux bases données. Un exercice peut

On connaît tout d’une application linéaire quand on connaît la valeur qu’elle prend sur une base,

ainsi commencer sans la moindre ambiguïté de la manière suivante : « On note f l’endomorphisme de 2 [ X ] de matrice

  4 dans la base canonique. » Il faut alors comprendre que : f (1) = 3 X + 1, f ( X ) = 4 X 2 + X

1

3

0

0

1

4

2

5

et

f X 2 = 5 X 2 + 4 X + 2.

Exemple Si E est un -espace vectoriel de dimension finie n et si est une base de E : Mat (Id E )= I n .

Exemple

On note T l’endomorphisme P −→ X 2 P + P (1) de 3 [ X ] et 3 la base canonique de 3 [ X ].

Alors :

Mat 3 ( T )=

1

0

0

0

Démonstration T (1) = 1,

1

0

0

0

1

0

2

0

1

0

0

6

.

T ( X ) = 1,

T X 2 = 2 X 2 + 1

et

T X 3 = 6 X 3 + 1.

Théorème (Matrice dans les bases canoniques de l’application linéaire canoniquement associée à une matrice) Soit A n, p ( ). Si on note A l’application linéaire canoniquement associée à A et p et n les bases canoniques respectives de p et n , alors : A = Mat p , n A .

Démonstration Réfléchissez, il suffit d’appliquer scrupuleusement la définition. Ce petit résultat doit couler

dans vos veines.

1

Exemple On note ϕ l’application linéaire canoniquement associée à la matric e 1

0

1 , 2 la famille (0, 1), (1, 0) 1 1

2 et 3 , et :

et 3 la famille (1, 1, 1), (1, 1, 0), (1, 0, 0) . Ces familles 2 et 3 sont alors respectivement des bases de

Mat

2 ,

1

3 (ϕ )= 0

1

2 . Conclusion naturelle : si on change les bases, on change la matrice ! 1 0

Démonstration

La famille 2 est une base de 2 car sa matrice 0

1

0 1 dans la base canonique est inversible — d’in-

verse elle-même. Même idée pour 3 , sa matrice 1

1

1

1 0

1

1

0 dans la base canonique est inversible car

0

triangulaire à coefficients diagonaux non nuls après échang e de ses première et troisième colonne.

2

Christophe Bertault — Mathématiques en MPSI

Ensuite : ϕ (0, 1) =

0

1

1 1

1

1

0

1

= (0, 1, 1) = (1, 1, 1) (1, 0, 0).

De même : ϕ (1, 0) = (1, 1, 1) = (1, 1, 1) + 2(1, 1, 0). Les coordonnées de ϕ (0, 1) dans 3 sont donc (1, 0, 1) et celles de ϕ (1, 0) sont (1, 2, 0). C’est le résultat voulu.

Théorème (Rang d’une application linéaire, rang d’une matrice assoc iée) Soient E et F deux -espaces vectoriels de dimension finie, une base de E , une base de F et f ( E , F ). Alors : rg ( f ) = rg Mat , ( f ) .

En pratique Tout rang d’une application linéaire peut donc être calculé comme le rang d’une matrice grâce à l’algorithme du pivot.

Démonstration D’après le théorème analogue pour les familles de vecteurs :

rg Mat , ( f ) = rg Mat f ( ) = rg f ( ) = dim Vect f ( ) = dim Im f = rg ( f ).

Théorème (Calcul matriciel de l’image d’un vecteur par une application linéaire) Soient E = 0 E et F = 0 F deux -espaces vectoriels de dimension finie, une base de E , une base de F , u ( E , F ) et x E .

Alors : Mat u( x ) = Mat , (u) × Mat ( x ).

Explication

L’ ÉVALUATION pour une application linéaire se traduit matriciellement en termes de PRODUIT .

Démonstration Introduisons les vecteurs de et : = ( e 1 , , e p ) et = ( f 1 , , f n ), ainsi que les coordonnées de x dand : X = Mat ( x ) et la matrice de u dans les bases et : U = Mat , (u).

u( x )= u

p

j

= 1

x j e j =

p

j

= 1

x j u( e j )=

p

j

= 1

x j

donc les coordonnées de u( x ) dans sont

p p

j

= 1

u 1 j x j ,

,

j

= 1

n

i

= 1

u i j f i =

n

p

i = 1

j = 1

u i j x j f i ,

u nj x j , i.e. le produit Mat , (u) × Mat ( x ).

Exemple On note f l’endomorphisme de 2 [ X ] de matrice 0

3

1

0 2

3

6

2 dans la base canonique.

4

Alors : Im f = Vect 3, 2 X 2 + X

Démonstration Pour commencer :

Im f = Vect f (1), f ( X ), f X 2 = Vect 3, 2 X 2 + X + 3, 4 X 2 + 2 X + 6 = Vect 3, 2 X 2 + X + 3 = Vect 3, 2 X 2 + X .

et

Ker f = Vect X 2 2 X .

3

0

0

3

1

2

6

2

4

  

c

0

b = 0

a

Ensuite, pour tout P = aX 2 + bX + c 2 [ X ] : P Ker f

⇐⇒

  3 c

  3 c 

+ 3 b

+ 6 a

= 0

b

+ 2 a

= 0

2 b

+ 4 a

= 0

L 1 L 1 3 L 2

⇐⇒

⇐⇒ f ( P )

= 0

⇐⇒

c = 0 et

b = 2 a

 

0

⇐⇒

P = aX 2 2 aX .

Conclusion : Ker f = Vect X 2 2 X .

ATTENTION !

Deux remarques sur l’exemple précédent.

Les coordonnées de aX 2 + bX + c dans la base canonique de 2 [ X ] sont ( c , b , a ) ET NON PAS ( a , b , c ).

On raisonne matriciellement sur un squelette numérique, mais il ne faut pas oublier à la fin de l’exemple précédent de réincarner le résultat dans le monde vectoriel 3 [ X ]. La réponse : Ker R = Vect (0, 2, 1) n’est pas correcte.

3

Christophe Bertault — Mathématiques en MPSI

Théorème (Un dictionnaire entre les points de vue vectoriel et matric iel sur les applications linéaires)

(i) Soient E et F deux -espaces vectoriels de dimensions finies respectives p et n, une base de E et une base de F . L’application f −→ Mat , ( f ) est un isomorphisme de ( E , F ) sur n, p ( ).

(ii) Soient E , F, G trois -espaces vectoriels de dimensions finies non nulles de bases respectives , , et

f ( E , F ) et g

( F, G ). Alors : Mat , ( g f ) = Mat , ( g ) × Mat , ( f ).

(iii) Soient E et F deux -espaces vectoriels de MÊMES DIMENSIONS finies non nulles, une base de E , une base de F et f ( E , F ). Alors f est un isomorphisme de E sur F si et seulement si Mat , ( f ) est inversible.

Dans ce cas, en outre : Mat , f 1 = Mat , ( f ) 1 .

Explication

En résumé, l’assertion (i) exprime deux choses :

— une propriété de linéarité : Mat , (λ f + µ g ) = λ Mat , ( f ) + µ Mat , ( g ) avec des notations évidentes,

— une propriété de bijectivité déjà mentionnée informellement plus haut — on connaît entièrement f quand on connaît Mat , ( f ).

Elle relie aussi en passant deux résultats bien connus : dim n, p = np et dim ( E , F ) = dim E × dim F .

L’assertion (ii) montre que le PRODUIT est aux matrices ce que la COMPOSITION est aux applications linéaires. Nous connaissions déjà ce résultat dans le cas particulier des ap plications linéaires canoniquement associées à des matric es.

  0 .    . .    Mat ( e
 
0
.
 
.
.
  
Mat ( e j )= 1 
.
 . 
position j
.
0

Démonstration Vous démontrerez seuls l’assertion (i).

(ii) Introduisons les vecteurs de : = ( e 1 ,

, e n ).

Pour tout j 1, n :

Mat , ( g f )×Mat ( e j ) = Mat g f ( e j ) = Mat , ( g )×Mat f ( e j ) = Mat , ( g )×Mat , ( f )×Mat ( e j ),

mais n’oublions pas que Mat ( e j ) est le j ème vecteur de la base canonique de n . Nous venons donc

de montrer que Mat , ( g f ) et Mat , ( g ) × Mat , ( f ) ont les mêmes j èmes colonnes, et ce pour tout

j 1, n . Comme voulu : Mat , ( g f ) = Mat , ( g ) × Mat , ( f ).

Mat (Id F )= I n , donc

Mat , ( f ) est inversible d’inverse Mat , f 1 .

Réciproquement, si A = Mat , ( f ) est inversible, notons g l’unique application linéaire de F dans E pour laquelle : Mat , ( g )= A 1 . Aussitôt : Mat ( g f ) = Mat , ( g ) × Mat , ( f )= A 1 A = I n et :

Mat ( f g )= I n , donc : g f = Id E et f g = Id F , et enfin f est bijective de E sur F .

(iii) Si f est bijective et si on pose n = dim F :

Mat , ( f ) × Mat , f 1 =

Exemple L’endomorphisme ω de 3 [ X ] dont la matrice dans la base canonique de 3 [ X ] est =

1

0

1

2

1 2

0

0

1 1

1

1 2

1 2

1

est

la symétrie par rapport à Vect X 3 + X 2 + X , X 2 + 1 parallèlement à Vect X 3 + X + 1, X 3 + X 2 .

Démonstration

Par définition, ω est linéaire. Montrer que c’est une symétrie revient donc à montrer que : ω 2 = Id 3 [ X ] , ou encore matriciellement que : 2 = I 4 — ce qui est très facile à vérifier.

Cherchons le sous-espace vectoriel de 3 [ X ] par rapport auquel θ est une symétrie : Ker ω Id 3 [ X ] .

Pour tout P = aX 3 + bX 2 + cX + d 3 [ X ] :

⇐⇒

⇐⇒

d

c

b

a

 

d

c

=

b

a

d

d

d

+

c

2 c

+

+

+

b

b

b

a a a 3 a

=

=

=

=

4

P Ker ω Id 3 [ X ]

0

0

0

0

⇐⇒

d

d

d

⇐⇒

ω ( P ) = P

 
 

b

=

d

+

c

+

b

a a

=

c

2

c

+

b

2 a

=

b

+

2

c

+

b

2 a

=

a

 

+

b

a

=

0

 

c

a

=

0

Christophe Bertault — Mathématiques en MPSI

⇐⇒

λ , µ /

a = λ

b

c =

d = µ .

= λ + µ

λ

Ainsi :

Ker ω Id 3 [ X ] = Vect X 3 + X 2 + X , X 2 + 1 .

On montre de la même manière que : Ker ω + Id 3 [ X ] = Vect X 3 + X + 1, X 3 + X 2 .

Définition-théorème (Condition nécessaire et suffisante d’inversibilité d’une matrice de Vandermonde) Soient
Définition-théorème (Condition nécessaire et suffisante d’inversibilité d’une matrice de Vandermonde) Soient
x 1 ,
, x n ∈ .
2
n−
1
1
x
x
1 ··· x
1
1
n−
1
1
x
x
2 ··· x
2
2
2  
j − 1
On appelle matrice de Vandermonde
de x 1 ,
, x n la matrice :
x
.
.
. .
.  
i 1 i , j n =
.
. .
.
 .
. .
.
2
n−
1
1
x
n ··· x
Cette matrice est inversible si et seulement si les scalaires x 1 , , x n sont distincts.
x n
n

Démonstration

Si deux des scalaires x 1 , , x n sont égaux, leur matrice de Vandermonde possède deux lignes égales, donc n’est pas inversible.

Réciproquement,

supposons x 1 ,

,

x n distincts

et notons ϕ l’application linéaire P −→

P ( x 1 ),

, P ( x n )

de n 1 [ X ] dans

n . Cette application est injective car pour tout P Ker ϕ : P ( x 1 ) =

= P ( x n ) = 0,

donc le polynôme P possède n racines distinctes alors qu’il est de degré au plus n 1 — ainsi P = 0. Or :

dim n 1 [ X ] = n = dim n , donc son injectivité fait de ϕ un isomorphisme de n 1 [ X ] sur n .

En particulier, la matrice de ϕ dans la base canonique de n 1 [ X ] au départ et la base canonique de

n à l’arrivée est inversible d’après le théorème précédent, o r cette matrice est exactement la matrice de

Vandermonde de

x 1 ,

, x n .

Explication

(Interprétation géométrique des blocs) Soient E un -espace vectoriel, F et G deux sous-espaces

vectoriels supplémentaires de E de dimensions respectives p et q et = ( e 1 , , e p + q ) une base de E adaptée à la décompo-

sition :

E = F G . Pour rappel, cela signifie que ( e 1 ,

, e p ) est une base de F et ( e p + 1 ,

, e p + q ) une base de G .

Soit f ( E ). La matrice de f dans s’écrit : Mat ( f )= A C D pour certaines matrices A p ( ), B q , p ( ),

B

C

p , q ( ) et D q ( ). Nous allons tâcher de comprendre sur deux situations importantes de quelle manières les blocs

A,

B , C et D peuvent être interprétés géométriquement.

À quelle condition a-t-on : B = 0 ?

B = 0

⇐⇒

j 1, p ,

f ( e j ) Vect( e 1 ,

, e p )

⇐⇒

x F,

f ( x ) F

⇐⇒

F est stable par f .

Dans ces conditions, la restriction f

F est un endomorphisme de F , et de plus :

A = Mat ( e 1 , e p ) f F .

,

À quelle condition a-t-on :

B = C = 0 ? Comme au point précédent :

,

F

et

B = C = 0

G sont des endomorphismes de F et G

si et seulement si F et G

sont tous les deux stables par f . Dans ces conditions, les restrictions f

D = Mat ( e p +1 ,

respectivement, et de plus : A = Mat ( e 1 , e p ) f

F et f

A = Mat ( e 1 , e p ) f F et f , e

,

e p +q ) f

G .

Exemple

tives q et r et une base de E adaptée à la décomposition : E = F G . Notons p la projection sur F parallèlement à G

Soient E un -espace vectoriel, F et G deux sous-espaces vectoriels supplémentaires de E de dimensions respec-

et s la symétrie par rapport à

F parallèlement à G . Alors : Mat ( p )= I q 0 r et Mat (s )=

I q

I r .

Démonstration Introduisons les vecteurs de : = ( e 1 , , e q + r ). Par définition d’une projection :

i 1, q ,

p ( e i )= e i

et

j q + 1, q + r ,

p ( e j )= 0 E ,

et par définition d’une symétrie : i 1, q , s ( e i )= e i Le résultat en découle.

et

j q + 1, q + r ,

s ( e j )=e j .

L’exemple qui suit est emblématique de nombreux exercices. En dimension finie, on peut calculer la matrice d’un endo- morphisme dans n’importe quelle base, mais n’y a-t-il pas des bases dans lesquelles le résultat est plus simple et plus jo li que dans d’autres ? L’étude de cette question est une branche de l’algèbre linéaire que vous étudierez davantage en deuxième année, appelée réduction. Réduire un endomorphisme, c’est trouver une base dans laquelle sa matrice est jolie — par exemple diagonale, triangulaire, pleine de zéros

5

Christophe Bertault — Mathématiques en MPSI

Exemple Soient E un -espace vectoriel de dimension 3 et f ( E ). On suppose que : f 2 = 0 ( E ) mais f

= 0 ( E ) .

Dans une certaine base de E , f a pour matrice : 0

Démonstration

0

0

0 0

0

1

0

0


.

0

Analyse : Soit ( e 1 , e 2 , e 3 ) une base de E . On suppose que : Mat ( e 1 , e 2 , e 3 ) ( f )= 0

0

0

0

0

1

0

0

,

i.e. que :

f ( e 1 )= f ( e 2 )= 0 E et libre de Ker f , ensuite que :

puisque : e 1 = f ( e 3 ).

f ( e 3 )= e 1 . Nous en tirons trois choses, d’abord que ( e 1 , e 2 ) est

une famille

e 3 / Ker f , et enfin que e 3 devra être défini AVANT e 1 dans la synthèse

Synthèse : Commençons par calculer dim Ker f . Par hypothèse : f 2 = 0 ( E ) , donc : Im f Ker f ,

Or

3

donc d’après le théorème du rang : dim E dim Ker f dim Ker f ,

n’oublions pas que : f = 0 ( E ) , donc : dim Ker f < dim E = 3. Conclusion :

Donnons-nous à présent un vecteur quelconque e 3 de E \ Ker f et posons : e 1 = f ( e 3 ). Clairement :

e 1 Ker f \ 0 E car : f 2 = 0 ( E ) et e 3 / Ker f . Complétons alors la famille libre ( e 1 ) de Ker f

en une base ( e 1 , e 2 ) de Ker f . La famille ( e 1 , e 2 , e 3 ) est libre car : e 3 / Ker f , donc est une base de E

i.e. :

dim Ker f

2 . dim Ker f = 2.

car :

dim E = 3.

0

En outre, tout a été fait pour qu’on ait : Mat ( e 1 , e 2 , e 3 ) ( f )= 0

0

0

0

0

1

0

0

.

3 C HANGEMENTS DE BASES , ÉQUIVALENCE ET SIMILITUDE

3.1 C HANGEMENTS DE BASES

Définition-théorème (Matrice de passage d’une base à une autre) Soient E = 0 E un
Définition-théorème (Matrice de passage d’une base à une autre) Soient E = 0 E un -espace vectoriel de
dimension finie et , ′ et ′′ trois
bases
de E .
On appelle matrice de passage de à ′ la matrice : Mat ( ′ ) = Mat ′ , (Id E ) souvent notée P
.
′′
′′
Alors :
(i)
P
est inversible d’inverse P ′ .
(ii)
P
P
′ = P
.

Démonstration

(i) P

est la matrice d’un isomorphisme : P

1 = Mat , (Id E ) 1 = Mat , Id 1

E

Id 1 = Id

E

=

(ii)

P

′′

P

=

′′

Mat , (Id E ) × Mat , (Id E ) = Mat , (Id E Id E ) = Mat , (Id E )= P .

E

P

.

Théorème (Changement de base pour un vecteur) Soient E = 0 E un -espace vectoriel de dimension finie et

et deux bases de E . On pose :

P = P

. Pour tout x E de coordonnées X dans et X dans : X = PX .

Démonstration L’égalité : x = Id E ( x ) s’écrit matriciellement dans les bases adaptées : X = PX .

Exemple Soit θ fixé. Notons = ı , la base canonique de 2 et posons :

On définit ainsi une base θ de 2 .

−→

u

−→

θ

v

θ

=

=

ı +

sin θ ı +

cos θ

sin θ

cos θ

.

x

En outre, soit u =( x , y ) 2 . Les coordonnées de u dans sont bien sûr X = x y . Si nous notons X = les

y

coordonnées de u dans la base θ :

x x cos θ

=

y sin

θ

y x sin

=

θ

+

y cos

θ

6

et

x = x cos θ + y sin θ

y

=

x sin θ

+

y cos

θ .

−→

v

θ

Christophe Bertault — Mathématiques en MPSI

Démonstration

−→  −→ u θ −→ ı
−→ 
−→
u θ
−→
ı

Mat ( θ )= cos sin θ θ

= cos θ sin θ

sin θ , cos θ

D’abord :

inversible. Comme voulu, θ est une base de 2 .

matrice de déterminant :

X = cos θ sin θ

1 = cos θ sin θ

cos 2 θ + sin 2 θ = 1 = 0

donc

Ensuite, sachant que P

θ

sin θ :

cos θ

θ

sin θ cos θ sin θ

cos θ .

X . Pour l’autre formule, simple-

ment calculer l’inverse de P

θ

:

P θ = P

Théorème (Changement de bases pour une application linéaire) Soient E = 0 E et F = 0 F deux -espaces vectoriels de dimension finie, et deux bases de E , et deux bases de F et f ( E , F ).

On pose : P = P

, Q = P

, A = Mat , ( f )

et

A = Mat , ( f ).

Alors :

A = Q 1 AP .

Explication Il est important de se donner des mots pour décrire chacune des données

de cet énoncé. Tout simplement, E est l’espace de départ de f , F son espace d’arrivée, et sont les « anciennes » bases, i.e. les bases avant changement de bases, et et les « nouvelles » bases, i.e. les bases après changement. Départ /arrivée/ancien/nouveau !

Démonstration Le diagramme ci-contre peut presque tenir lieu de preuve. L’égalité :

f Id E = Id F f

s’écrit matriciellement : AP = QA , i.e. :

A = Q 1 AP .

E ,

f , A

F,

Id E , P

Id F , Q

E ,

f , A

F,

ATTENTION !

Il y a DEUX formules de changement de bases, une pour les vecteurs et une pour les applications

linéaires, merci de ne pas les confondre !

Théorème (Changement de bases et matrice J r ) Soient E et F deux -espaces vectoriels de dimensions respectives p et n et f ( E , F ) de rang r . Alors pour une certaine base de E et une certaine base de F : Mat , ( f )= J r ,

J r est la matrice de taille n × p suivante :

J r = I 0

r

0 0 .

Démonstration Soient = ( e i ) 1 j p une base de E et = ( f i ) 1 i n une base de F . Est-il possible d’imposer à ces bases que la matrice de f y soit J r ?

Pour que les p r dernières colonnes de Mat , ( f ) soient nulles, il faut et il suffit que les vecteurs e r + 1 , , e p soient éléments de Ker f et linéairement indépendants. Comme Ker f est de dimension p r d’après le théorème du rang, nous n’avons qu’à choisir pour f amille ( e j ) r + 1 j p une base de Ker f et la compléter simplement en une base de E .

pour

Pour que les r premières colonnes de Mat , ( f ) soient ce qu’on veut, on peut poser : f j = f ( e j )

tout j 1, r , puis compléter en une base de F , MAIS CE N EST POSSIBLE QUE SI LA FAMILLE ( f j ) 1 j r EST LIBRE . Or la famille ( e j ) 1 j r engendre par construction un supplémentaire I de Ker f dans E , donc

f I est un isomorphisme de I sur Im f . La

famille ( f j ) 1 j r = f ( e j ) 1 j r est ainsi libre.