Vous êtes sur la page 1sur 21

Exemple


*{ 0 } est de dimension 0.
*Toute droite vectorielle est de dimension 1. Réciproquement tout
sous-espace vectoriel de dimension 1 est une droite vectorielle
(engendrée par le seul élément d’une base).
*Tout plan vectoriel est de dimension 2 (et réciproquemet tout
sous-espace vectoriel de dimesion 2 est un plan vectoriel).
*Rn est de dimension n.

Remarque
Une famille libre à k éléments d’un sous-espace vectoriel de
dimension k est automatiquement une base de ce sous-espace
vectoriel (donc automatiquement génératrice).
Une famille à k éléments génératrice d’un sous-espace vectoriel de
dimension k est automatiquement une base de ce sous-espace
vectoriel (donc automatiquement libre).
2-7 Constructions de bases :

Le principe est le suivant : si on ajoute à une famille libre F un


vecteur qui n’appartient pas à Vect(F), alors, on obtient une
nouvelle famille qui est toujours une famille libre, (et qui engendre
un sous-espace vectoriel de dimension un de plus que Vect(F)).
Théorème
(de la base incomplète).
Soit F une famille libre de vecteurs d’un sous-espace vectoriel V .
Soit G une famille qu engendre V . Alors il existe une base de V qui
contienne tous les vecteurs de F et dont tous les autres vecteurs
ont partie de G

La “base incomplète” est donc la famille libre F, et on la complète


en lui ajoutant certains vecteurs bien choisis de G (pas tous !).
Je ne détaille pas la démonstration qui se fait en appliquant le
principe précédent (à chaque vecteur de G : on ajoute un tel
vecteur à la famille en train de se construire s’il n’appartient pas au
sous-espace vectoriel qu’elle engendre)

Une première conséquence de ce résultat est que si on a deux


sous-espaces vectoriels F et G tels que F ⊂ G , alors il existe une
base de G dont les premiers vecteurs constituent une base de F.

On en déduit que si F et G sont deux sous-espaces vectoriels, et si


F ⊂ G , alors dimF ≤dimG .

Et aussi, si F et G sont deux sous-espaces vectoriels, tels que


F ⊂ G et si dimF =dimG , alors F = G .

Au passage, tous les sous-espaces vectoriels de Rn sont de


dimension inférieure (ou égale) à n.
2-8 Somme et somme directe de deux sous-espaces vectoriels :

Théorème
Si F et G sont des sous-espaces vectoriels, F ∩ G aussi
Le même résultat est faux si on remplace intersection par réunion
(on a vu l’exemple de deux droites vectorielles différentes : si on
ajoute deux vecteurs non nuls n’appartenant pas tous les deux à la
même droite, alors la somme n’appartiendra à aucune des deux
droites et donc pas à leur réunion).
Définition
Si F et G sont deux sous-espaces vectoriels, alors F + G est le
sous-espace vectoriel défini par
→ → → →
F + G = v + w ; v ∈ F et w ∈ G

Par exemple si on prend deux droites vectorielles différentes, leur


somme est le (seul) plan vectoriel qui les contient toutes les deux.
Cette somme de sous-espaces vectoriels a les propriétés suivantes :
* F ⊂ F + G,
* G ⊂F +G
* si F ⊂ H et G ⊂ H et H est un sous-espace vectoriel,
alors F + G ⊂ H.
Ainsi F + G est le plus petit (plus petit au sens de l’inclusion)
sous-espace vectoriel qui contienne à la fois F et G .
On a aussi les propriétés suivantes

* F + {0} = F,
* F + F = F,
* F + G = G + F,
* si F ⊂ G , alors F + G = G ,
* cette somme est associative.

Théorème
dim(F + G ) = dimF +dimG −dim(F ∩ G )
Définition

F et G sont dits être “en somme directe” si F ∩ G = { 0 }.
Dans ce cas, la somme F + G est notée F ⊕ G

Par exemple, deux droites différentes sont toujours en somme


directe, un plan vectoriel et une droite qui n’est pas incluse dans ce
plan sont toujours en somme directe.
Remarque
Le principe de la somme (directe ou non) F + G des sous-espaces

vectoriels F et G , c’est que pour tout vecteur u ∈ F + G , on a
→ →
l’existence de v ∈ F et w ∈ G tels que
→ → →
u = v +w

Si en plus F et G sont en somme directe, alors cette écriture est



unique pour tout u ∈ F + G .
Remarque
Si F et G sont en somme directe, alors
dim(F ⊕ G ) = dimF +dimG

Définition
Des sous-espaces F1 , F2 , . . . , Fk sont dits “en somme directe” si
pour tout j ∈ {1, 2, . . . , k}, le sous-espace Fj est en somme directe
avec
F1 + F2 + . . . + Fj−1 + Fj+1 + . . . + Fk .
Dans ce cas, on note la somme F1 ⊕ F2 ⊕ . . . ⊕ Fk .

Dans cette situation, comme avant, la décomposition


→ → → → →
u = v 1 + v 2 + . . . + v k avec v j ∈ Fj pour tout j

est unique pour tout vecteur u ∈ F1 ⊕ F2 ⊕ . . . ⊕ Fk . Et aussi
dim(F1 ⊕ F2 ⊕ . . . ⊕ Fk ) = dim(F1 )+dim(F2 ) + . . . +dim(Fk )
3°) Rappels sur les changements de
base et l’inversion des matrices
3-1 Changement de base dans Rn
Définition
→ → →
Soit (b) = ( b 1 , b 2 , ..., b n ) une base de Rn . La matrice de
présentation de (b) dans la base canonique de Rn est la matrice
P(can)→(b) dont les colonnes sont les vecteurs de (b). Ainsi, si
P(can)→(b) = (ai,j ) 1≤i≤n , alors pour tout j ∈ {1, 2, . . . , n}, on a que
  1≤j≤n
a1,j

b j =  ...  est la j ième colonne de P(can)→(b) .
 

an,j

Exemple
En un point du plan de coordonnées polaires (ρ, φ), on a la base
→ →
(pol) = ( e ρ , e φ ) adaptée aux cooordonnées polaires de ce point :
 
cos φ − sin φ
P(can)→(pol) =
sin φ cos φ
Utilisation de cette matrice :

elle sert à faire un “changement de base”, au sens suivant :


→ → → →
supposons que v = α1 b 1 + α2 b 2 + . . . + b n , alors il est possible

de retrouver les composantes de v dans la base canonique grâce à
la matrice de présentation de (b) dans (can) :
     
α1 β1 β1
α2  β2  β2 

P(can)→(b)  .  =  .  alors v =  .  ∈ Rn
     
.
 .  . .  .. 
αn βn βn

les αj sont donc les composantes de v dans (b) et les βi sont les

composantes de v dans la base canonique.
Remarque
On peut aussi considérer n’importe quel couple de bases
→ → → → → →
(b) = ( e 1 , e 2 , . . . , e n ) et (b ′ ) = ( e ′1 , e ′2 , . . . , e ′n ), décomposer
chaque vecteur de la deuxième sur la première :
→ → → →
Pour tout j ∈ {1, 2, . . . , n}, e ′j = a1,j e 1 + a2,j e 2 + . . . + an,j e n

alors la matrice
P(b)→(b′ ) = (ai,j ) 1≤i≤n
1≤j≤n

est la matrice de présentation de (b ′ )


dans (b)
(chacune de ses colonnes contient les composantes dans la base (b)
d’un vecteur de (b ′ )).
Remarque, continuée

Pour tout vecteur v de Rn , si on a
→ → →
v = α1 e ′1 + . . . + αn e ′n
→ →
= β1 e 1 + . . . + βn e n
   
α1 β1
 ..   .. 
alors P(b)→(b′ )  .  =  . 
αn βn
3-2 Multiplication des matrices :

La première occurence de la multiplication des matrices vient de


l’exemple suivant :
→ → → → → →
Prenons 3 bases (b) = ( e 1 , e 2 , . . . , e n ), (b ′ ) = ( e ′1 , e ′2 , . . . , e ′n )
→ → → →
et (b ′′ ) = ( e ′′1 , e ′′2 , . . . , e ′′n ), et un vecteur v quelconque.

Décomposons v sur les trois bases
→ → →
v = α1 e 1 + . . . + αn e n
→ →
= β1 e ′1 + . . . + βn e ′n
→ →
= γ1 e ′′1 + . . . + γn e ′′n
On a alors
       
β1 α1 γ1 α1
 ..   ..   ..   .. 
P(b)→(b′ )  .  =  .  , P(b)→(b′′ )  .  =  .  ,
βn αn γn αn
   
γ1 β1
 ..   .. 
et P(b′ )→(b′′ )  .  =  . 
γn βn

On en déduit que
     
γ1 γ1 γ1
 ..  n  ..   .. 
Pour tout  .  ∈ R , P(b)→(b′ ) P(b′ )→(b′′ )  .  = P(b)→(b′′ )  . 
γn γn γn
En utilisant
* l’associativité du produit matriciel (si A et B sont des
→ → →
matrices et v un vecteur, alors (AB) v = A(B v ))
→ → →
* et le fait que si A v = B v pour tout vecteur v , alors
A = B,
on en déduit que

P(b)→(b′ ) P(b′ )→(b′′ ) = P(b)→(b′′ )

pour tout triplet de bases de Rn .


3-3 Inversion des matrices :

On remarque que pour toute base (b), on a


 
1 0 0 ··· 0
0 1
 0 ··· 0 
 .. . . . .. .. .. 
.
P(b)→(b) = Id =  . . .
 ..

.. .. 
. . . 0
0 ··· ··· 0 1
→ →
Cette matrice “identité” (notée Id) vérifie que Id v = v pour tout

vecteur v .

Alors, on déduit du calcul précédent que

P(b)→(b′ ) P(b′ )→(b) = Id et P(b′ )→(b) P(b)→(b′ ) = Id


Définition
Si M est une matrice carrée
Si N est une matrice carrée de même taille que N,
Si
MN = Id
alors d’abord, on a toujours

NM = Id

et ensuite, on dit que M est inversible et que N est la matrice


inverse de M, et on note

N = M −1
Remarque
Dans une telle situation, N est aussi inversible, et N −1 = M, ce qui
revient à
(M −1 )−1 = M

Remarque
On a rencontré cette situation de matrices inversibles dans le cadre
des changements de base :
−1
P(b)→(b′ ) = P(b′ )→(b)

On la rencontrera dans un autre contexte, celui des matrices


d’applications linéaires.

Remarque
Il existe des matrices carrées qui ne sont pas inversibles, (comme la
matrice nulle). Pour les matrices non carrées, cela n’a aucun sens
de dire qu’elles sont inversibles ou pas !
Théorème
Les conditions suivantes sont équivalentes (toutes simultanément
vraies ou toutes simultanément fausses) :
La matrice M est inversible
Ses colonnes forment une base de Rn
Ses colonnes forment une famille libre de vecteurs de
Rn
Ses colonnes forment une famille génératrice de Rn
Ses lignes forment une base de Rn
Ses lignes forment une famille libre de vecteurs de Rn
Ses lignes forment une famile génératrice de Rn

Je ne démontre pas ce résultat, je signale simplement que toute


matrice inversible est matrice de présentation d’une base.

Vous aimerez peut-être aussi