Vous êtes sur la page 1sur 38

Groupes, corps, matrices

Définition. Loi de composition interne


Définition : un groupe. Axioms: associativité, élément neutre, inverse
Définition : un groupe commutatif.
Exemples. (Z, +), (Q, +), (Q>0 , ·)
Lemme. Lorsqu’il existe, l’élément neutre pour une loi de composition in-
terne ∗ est unique.
Lemme. Lorsqu’il existe, l’inverse de g pour une loi associative de compo-
sition interne ∗ est unique.
Définition : un corps.
Exemples. (Q, +, ·), (R, +, ·), (C, +, ·), corps finis F2 , F3 .

Matrices
Définition d’une matrice. L’ensemble des matrices à m lignes et n colonnes à
coefficients dans K est noté Mm,n (K). Matrices carrées, la diagonale, matrices
diagonales. Matrice unité In .
Opérations sur les matrices.
Transposée d’une matrice. Propriété : (AT )T = A.
La somme de deux matrices de la même taille. Propriétés :
1. A + B = B + A ;
2. (A + B) + C = A + (B + C) ;
3. La transposée de la somme de deux matrices est la somme des matrices
transposées.
Multiplication d’une matrice par un nombre. Propriétés :
1. ∀ c, d ∈ K et A ∈ Mm,n (K) on a c(dA) = (cd)A et (c + d)A = cA + dA.
2. ∀ c ∈ K et A, B ∈ Mm,n (K) on a c(A + B) = cA + cB.
3. ∀ c ∈ K et A ∈ Mm,n (K) on a (cA)T = c AT .

1
Produit de matrices
On définit le produit AB de deux matrices A et B seulement si le nombre de
colonnes de A est égal au nombre de lignes de B.
Définition. Soient A ∈ Mm,n (K) et B ∈ Mn,k (K) deux matrices. Alors AB
est la matrice à m lignes et k colonnes dont les coefficients sont données par
la formule
n
X
(AB)ji := Ajl Bil = Aj1 Bi1 + Aj2 Bi2 + · · · + Ajn Bin .
l=1

Propriété. Soil 0a,b ∈ Ma,b (K) la matrice dont tous les éléments sont nuls.
On a, évidemment:
∀ A ∈ Mm,n (K) 0p,m A = 0p,n et A0n,q = 0m,q .
Proposition (Propriétés du produit des matrices) 1. Associativité du
produit : Soient A ∈ Mm,n (K), B ∈ Mn,p (K) et C ∈ Mp,q (K). Alors les
produits AB, (AB)C, BC, A(BC) ont un sens et l’on a l’égalité suivante
dans Mm,q (K) :
(AB)C = A(BC) .
2. Distributivité à droite du produit par rapport à la somme : soient A ∈
Mm,n (K), B ∈ Mm,n (K) et C ∈ Mn,p (K). Alors A+B et les produits AC, BC
et (A + B)C ont un sens et on a l’égalité dans Mm,p (K) :

(A + B)C = AC + BC .

3. Distributivité à gauche du produit par rapport à la somme : soient A ∈


Mm,n (K), B ∈ Mn,p (K) et C ∈ Mn,p (K). Alors B + C et les produits AB, AC
et A(B + C) ont un sens et on a l’égalité dans Mm,p (K) :

A(B + C) = AB + AC .

4. Comportement du produit des matrices par rapport au produit par un


scalaire : Soient A ∈ Mm,n (K), B ∈ Mn,p (K) deux matrices et c ∈ K un
scalaire. Alors les produits AB, (cA)B, A(cB) et c(AB) ont un sens et on a
les égalités dans Mm,p (K) :

(cA)B = A(cB) = c(AB) .

2
Proposition (Produit d’une matrice par une matrice unité) Soit Ir
la matrice unité d’ordre r. Si A ∈ Mn,p (K), on a les propriétés suivantes :
AIp = A et In A = A .

Proposition. Si le produit AB est défini, alors le produit B T AT est aussi


défini et l’on a
(AB)T = B T AT .

ATTENTION ! 1. Le produit matriciel n’est pas commutatif. En effet, il


peut se faire que AB soit défini mais pas BA, ou que AB et BA soient tous
deux définis mais pas de la même taille.
Mais même dans le cas où AB et BA sont définis et de la même taille,
on a en général AB 6= BA.
2. Si AB = 0, on ne peut pas en déduire que soit A = 0 soit B = 0.
C’est faux en général.
Cela montre aussi que si AB = AC, on ne peut pas simplifier par A pour
en déduire que B = C.
***
 Le corps C. Soit z = a + bi ∈ C. On assicie  0
à z 
0
la matrice Az =
a b a b
. Pour z 0 = a0 + b0 i ∈ C on a Az0 = 0 0 , donc Az Az0 =
−b a −b a
aa0 − bb0 ab + ba0
 
= Azz0 donc l’addition et la multiplication des
−ab − ba0 aa0 − bb0
nombres complexes est la mêmechose que  l’addition et la multiplication
x y
des matrices 2 par 2 de la forme .
−y x
Matrices inversibles
Définition. On dit que A ∈ Mn (K) est inversible si et seulement si il existe
une matrice A0 ∈ Mn (K) (l’inverse de A) telle que AA0 = A0 A = In .
On note l’inverse de A par A−1 .
Définition. Pour tout A ∈ Mn (K), on définit les puissances successives de A
par A0 = In et Aj+1 = AAj = Aj A pour tout j ∈ N. On définit A−j = (A−1 )j
pour tout j ∈ N quand A est inversible.
L’ensemble des matrices inversibles de Mn (K) est noté GLn (K). C’est un
groupe non-commutatif ; GL signifie “General Linear” (group). L’inverse de
A, lorsqu’il existe, est unique.

3
Propriétés.
1. Soit A ∈ GLn (K). Alors A−1 est inversible et on a (A−1 )−1 = A.
2. Soit A ∈ GLn (K). Alors AT est inversible et on a (AT )−1 = (A−1 )T .
3. Soient A, B ∈ GLn (K). Alors AB est inversible et on a (AB)−1 =
−1 −1
B A .
4. Simplification par une matrice inversible. Soient X, Y ∈ Mn (K)
et A ∈ GLn (K). Alors l’égalité AX = AY implique l’égalité X = Y . Pareil,
XA = Y A implique X = Y .

Pivot de Gauss, forme matricielle


L’algorithme est fondé sur les notions de matrices échelonnées réduites et
d’opérations élémentaires sur les lignes.

Définition. Une matrice A est dite échelonnée si et seulement si elle a les


deux propriétés suivantes
1) Si une ligne est entièrement nulle, toutes les lignes situées en dessous sont
également entièrement nulles.
2) Dans chaque ligne non entièrement nulle (à partir de la deuxième), le pre-
mier coefficient non nul en comptant à partir de la gauche est situé stricte-
ment à droite du premier coefficient non nul de la ligne précédente.
On dit qu’une matrice est échelonnée réduite si et seulement elle a en plus
les deux propriétés suivantes
3) Le premier coefficient non nul d’une ligne en comptant à partir de la
gauche vaut 1.
4) C’est le seul élément non nul de sa colonne.
Soit U une matrice echelonnée réduite. Les positions de pivot de U sont
les emplacements (numéro de ligne, numéro de colonne) des coefficients valant
1 du point 3) de la définition.
Définition. On appelle opérations élémentaires sur les lignes les trois opéra-
tions suivantes :
1) Échanger deux lignes (échange).

4
2) Multiplier une ligne par une constante non nulle (homothétie).
3) Remplacer une ligne par elle-même plus un multiple d’une autre ligne
(substitution).
En effectuant une opération élémentaire, on ne mélange jamais les colon-
nes.
Les trois opérations élémentaires sont inversibles, c’est-à-dire que l’on
peut revenir en arrière par une autre opération élémentaire.
Disons que deux matrices A, B ∈ Mmn (K) sont équivalentes si B se déduit
de A par une suite finie d’opérations élémentaires. Dans ce cas, on note
A ∼ B.
L’inversibilité des opérations élémentaires implique que la relation binaire
A ∼ B est une relation d’équivalence, c’est-à-dire :
1. Si A ∈ Mmn (K), on a A ∼ A (on dit que la relation ∼ est reflexive).
2. Soient A, B, C ∈ Mmn (K) trois matrices. Si A ∼ B et B ∼ C alors A ∼ C
(on dit que la relation ∼ est transitive).
3. Soient A, B ∈ Mmn (K). Si A ∼ B alors B ∼ A (on dit que la relation ∼
est symétrique ).
Théorème. Toute matrice A est équivalente à une matrice échelonnée
réduite U .

Interprétation matricielle de l’algorithme de Gauss


Définition. On appelle matrice élémentaire toute matrice qui résulte de
l’application d’une opération élémentaire sur les lignes à la matrice identité
Im .
Proposition. Soit A une matrice m × n et E une matrice élémentaire.
La matrice EA est celle qui résulte de l’application de la même opération
élémentaire à la matrice A.
Corollaire. Soit A ∈ Mmn (K) et U ∈ Mmn (K) la matrice échelonnée réduite
qui lui est équivalente. Alors il existe une matrice M ∈ GLm (K) telle que

U = M A ou bien A = M −1 U .

5
Matrice échelonnées réduites
Une matrice échelonnée est triangulaire supérieure (une matrice A = (Aij )
est triangulaire supérieure si Aij = 0 pour tout (i, j) tel que j < i).
Théorème. Soit A ∈ Mn (K) et U une matrice échelonnée réduite qui lui est
équivalente. La matrice A est inversible si et seulement si U est égale à In .
Donc, A (une matrice carrée) est inversible si et seulement si U = In .
On a alors M = A−1 . On retrouve donc le calcul de A−1 par la méthode de
Gauss en utilisant la matrice  = (A In ) de taille n × 2n; on notera (A|In ).
En effet, Û = M Â = (M A|M In ) = (In |A−1 ).

Systèmes linéaires
Définition. Soit n ∈ N un entier naturel supérieur à 1. Une équation linéaire
à n inconnues x1 , x2 , . . . , xn est une équation de la forme

a1 x1 + a2 x2 + · · · + an xn = b ,

où a1 , a2 , . . . , an et b sont des éléments de K donnés.


Soit m ∈ N un autre entier naturel supérieur à 1.

Définition. Un système de m équations linéaires à n inconnues, ou système


linéaire, est une liste de m équations linéaires.On écrit usuellement de tels
systèmes en m lignes placées les unes sous les autres.

Notation matricielle

La forme générale d’un système linéaire de m équations à n inconnues, ou


encore esystème m × n, est la suivante

A11 x1 + A12 x2 + A13 x3 + · · · + A1n xn = b1


A21 x1 + A22 x2 + A23 x3 + · · · + A2n xn = b2
...
Ai1 x1 + Ai2 x2 + Ai3 x3 + · · · + Ain xn = bi
...
Am 1 m 2 m 3 m n
1 x + A2 x + A3 x + · · · + An x = b
m

6
Les nombres Aij , i = 1, . . . , m, j = 1, . . . , n, sont les coefficients du système.
Ce sont des données. Les nombres bi , i = 1, . . . , m, constituent le second
membre du système et sont également des données.
La matrice
A11 A12 ... A1i ... A1n
 
 A21 A22 ... A2i ... A2n 
 .. .. .. .. 
. . ... . ... .
 
A=
 
Aj1 Aj2 ... Aji ... Ajn

 
 .. .. .. .. 
 . . ... . ... . 
A1 Am
m
2 ... Am i ... Am
n

est appelée la matrice du système linéaire.


Si on pose    
x1 b1
 x2   b2 
x =  ..  et b =   ,
   
..
 .   . 
n
x bn
le système s’écrit matriciellement Ax = b.
On introduit aussi
 1
A1 A12 . . . A1i ... A1n b1

 A21 A22 . . . A2i ... A2n b2 
 . .. .. .. .. 
 .
 . . ... . ... . .

à =  j  .

j
 A1 A2 . . . Aji ... Ajn bj 
 . .. .. .. .. 
 .. . ... . ... . . 
A1 A2 . . . Am
m m
i ... Am
n bm

On l’appelle la matrice augmentée du système. C’est une matrice m × (n +


1). Elle contient la matrice des coefficients avec une colonne supplémentaire
ajoutée à sa droite et contenant le second membre, c’est-à-dire toute l’infor-
mation nécessaire à déterminer le système.

Définition. Une solution du système linéaire est une liste de n nombres


réels (s1 , s2 , . . . , sn ) (un n-uplet) tels que si l’on substitue s1 pour x1 , s2 pour
x2 , etc., dans le système linéaire, on obtient une égalité. L’ensemble des
solutions du système est l’ensemble de tous ces n-uplets.

7
Définition. On dit que deux systèmes linéaires sont équivalents s’ils ont le
même ensemble de solutions.
Le jeu pour résoudre un système linéaire donné consistera à le transformer
en un système équivalent dont la résolution sera plus simple que celle du
système de départ.

Exemple. Résolution dans le cas d’un système 2 × 2 à coefficients réels.


 1 1
A1 x + A12 x2 = b1 ,
A21 x1 + A22 x2 = b2 .

Si x1 et x2 désigne les coordonnées cartésiennes d’un point du plan, on re-


connaı̂t deux équations de droite, une par ligne du système. Par conséquent,
toute solution (s1 , s2 ) du système correspond aux coordonnées d’un point
d’intersection des deux droites. On a trois possibilités.
a) Les droites ne sont pas parallèles ; dans ce cas l’intersection des deux
droites est un point.
b) Les droites sont parallèles et ne con̈cident pas ; dans ce cas, les deux
droites ne se coupent pas, donc le système n’a pas de solution.
c) La troisième et dernière possibilité géométrique est que les deux droites
soient confondues; dans ce cas on a alors une infinité de solutions -
{coordonnées des points de la droite}.
Ces trois cas obtenus dans le cas de systèmes 2 × 2 recouvrent en fait la
situation générale, comme on le démontrera plus loin. On a en effet trois pos-
sibilités suivantes pour l’ensemble des solutions d’un système linéaire général
m × n.
a) Soit il n’y a aucune solution, S = ∅. Dans ce cas, on dit que le système
est incompatible.
b) Soit il y a une solution unique, S = {(s1 , s2 , . . . , sn )} l’ensemble des
solutions contient un seul n-uplet. Dans ce cas, on dit que le système est
compatible.
c) Soit il y a une infinité de solutions, et on dit aussi dans ce cas que le
système est compatible.

Un cas particulier important est celui des systèmes homogènes pour les-
quels b1 = b2 = · · · = bm = 0, c’est-à-dire dont le second membre est nul.
De tels systèmes sont toujours compatibles car ils admettent toujours la

8
solution s1 = s2 = · · · = sn = 0. Cette solution est appelée solution triviale.
Géométriquement dans le cas 2 × 2, un système homogène correspond à deux
droites qui passent par l’origine des coordonnées, cette origine (0, 0) étant
donc toujours solution. Dans le cas des systèmes homogènes, on s’attachera
par conséquent à déterminer s’il n’y a que la solution triviale ou s’il y en a
d’autres.

Systèmes échelonnés réduits


Il se trouve que les systèmes linéaires dont la matrice augmentée est échelon-
née réduite – appelés systèmes échelonnés réduits pour aller plus vite – sont
particulièrement simples à résoudre.
Dans une matrice échelonnée réduite, on appelle colonnes de pivot les
colonnes qui contiennent une position de pivot et lignes de pivot les lignes
qui contiennent une position de pivot. Il y a au plus une position de pivot
par ligne, et au plus une position de pivot par colonne. Par conséquent, le
nombre de colonnes de pivot est égal au nombre de lignes de pivot, tous deux
étant égaux au nombre de positions de pivot.
Les positions de pivot permettent d’introduire une classification des in-
connues.
Définition. Les inconnues correspondant à une colonne de pivot sont ap-
pelées inconnues ou variables essentielles. Les autres sont appelées inconnues
ou variables libres.
Théorème. Un système échelonné réduit est compatible si et seulement si
sa matrice augmentée ne contient aucune ligne de la forme

(00 . . . 0b) avec b 6= 0 .

Dans ce cas, on obtient une description paramétrique de l’ensemble des so-


lutions en exprimant les variables essentielles en fonction du second membre
et des variables libres.
Corollaire. Dans le cas d’un système échelonné réduit m × n on a trois
possibilités suivantes.
a) Soit il n’y a aucune solution s’il y a une ligne de la forme (00 . . . 0b)
avec b 6= 0.

9
b) Soit il y a une solution unique s’il n’y a pas de telle ligne ni de variables
libres.
c) Soit il y a une infinité de solutions s’il n’y a pas de telle ligne mais qu’il
existe des variables libres.

Résolution des systèmes par l’algorithme de Gauss


Proposition. Si les matrices augmentées de deux systèmes linéaires sont
équivalentes, alors les systèmes linéaires sont équivalents.

Théorème. Toute matrice A est équivalente à une unique matrice échelon-


née réduite U .
En regroupant tous les résultats précédents, on obtient la discussion
générale de la résolution des systèmes linéaires.
Corollaire. Soit un système linéaire m × n quelconque, A sa matrice aug-
mentée et U l’unique matrice échelonnée réduite équivalente à A. On a trois
possibilités suivantes.
a) Soit il n’y a aucune solution si U contient une ligne de la forme
(00 . . . 0b) avec b 6= 0.
b) Soit il y a une solution unique si U ne contient aucune telle ligne et
qu’il n’y a pas de variables libres.
c) Soit il y a une infinité de solutions si U ne contient aucune telle ligne
mais qu’il existe des variables libres.

Proposition. Soit un système linéaire donné sous sa forme matricielle Sx =


b où S est un élément de Mn (K). Il admet une solution unique si et seulement
si S est inversible.

10
Espaces vectoriels et applications linéaires
Définition. Un K-espace vectoriel est un ensemble non vide E muni
• d’une loi de composition interne c’est à dire d’une application de E × E
dans E,
E × E → E , (v, v 0 ) 7→ v + v 0
• d’une loi de composition externe : une application de K × E dans E
K × E → E , (c, v) 7→ c · v
vérifiant trois groupes d’axiomes :
1) Axiomes relatifs à la loi interne ;
2) Axiomes relatifs à la loi externe ;
3) Axiomes liant les deux lois : double distributivité.

Axiomes
Dans la description des axiomes, la loi externe sur E et la multiplication dans
K seront toutes les deux notées · ; la loi de composition interne dans E et la
somme dans K seront toutes les deux notées + mais le contexte permettra
de déterminer aisément de quelle loi il s’agit.
1) Axiomes relatifs à la loi interne : E est un groupe commutatif par rapport
à la loi de composition interne, c’est-à-dire (rappel) :
a) Associativité : pour tous éléments u, v et w de E
(u + v) + w = u + (v + w) .

b) Il existe un élément neutre : un élément de E, noté 0E , vérifiant pour


tout élément v de E
v + 0E = 0E + v = v .

c) Tout élément de E admet un inverse par rapport à la loi de composition


interne : il existe unélément v 0 de E tel que
v + v 0 = v 0 + v = 0E .
Cet élément v 0 de E est noté −v. L’inverse de v par rapport à la loi de
composition interne on appelle le symétrique de v.

11
d) Commutativité : pour tous élément u et v de E,

u+v =v+u .

2) Axiomes relatifs à la loi externe

a) Pour tous éléments c, d ∈ K et pour tout élément v ∈ E, on a

(c · d) · v = c · (d · v) .

b) Soit 1 l’élément neutre de la multiplication de K. Pour tout élément


v ∈ E, on a
1·v =v .

Axiomes liant les deux lois : double distributivité.

a) Distributivité par rapport à l’addition des scalaires : Pour tous c, d ∈ K


et pour tout élément v ∈ E, on a :

(c + d) · v = c · v + d · v .

b) Distributivité par rapportà l’addition des vecteurs : Pour tout élément


c ∈ K et pour tous éléments u, v ∈ E, on a

c · (u + v) = c · u + c · v .

Exemples. K2 , Kn , le R-espace vectoriel A(R, R) des applications de R


dans R, le R-espace vectoriel des suites réelles, le R-espace vectoriel C, le
K-espace vectoriel des matrices, l’ensemble des applications d’un ensemble
dans un espace vectoriel.

Quelques règles
• Comme toujours pour les groupes, si u, v, w ∈ E sont des vecteurs tels
que u + v = u + w, alors v = w.

• Pour tout vecteur v ∈ E, 0v = 0E .

12
• Pour tout scalaire c, c0E = 0E .

• Pour tout vecteur v ∈ E , (−1)v = −v.

• L’opération (v, w) 7→ v + (−w) s’appelle la soustraction ;


Le vecteur v + (−w) est noté v − w. Les propriétés suivantes sont
satisfaites :
a) Pour tout scalaire c et tous vecteurs v et w, c(v − w) = cv − cw.

c(v − w) = cv + c(−w) = cv + c(−1)w = cv + (c(−1))w =

cv + ((−1)c)w = cv + (−1)cw = cv − cw

b) Pour tous scalaires c et d et tout vecteur v, (c − d)v = cv − dv.

• Si c est un scalaire et v un vecteur tels que cv = 0E , alors soit c = 0,


soit v = 0E .

Combinaisons linéaires d’éléments dans un espace vectoriel

Définition. Soit n un entier supérieur ou égal à 1 et v1 , v2 , . . . , vn n vecteurs


d’un espace vectoriel E. Tout vecteur de la forme w = c1 v1 + c2 v2 + · · · + cn vn
où c1 , c2 , . . . , cn sont des éléments de K est appelé combinaison linéaire des
vecteurs v1 , v2 , . . . , vn . Les scalaires c1 , c2 , . . . , cn sont appelés coefficients de
la combinaison linéaire. Si n = 1, on dit que w est colinéaire à v1 .

Sous-espaces vectoriels
Définition–Théorème. Soit E un K-espace vectoriel et soit F une partie
de E telle que
• F est non vide ;

• F est stable pour l’addition :

∀ u, v ∈ F , u + v ∈ F ;

• F est stable pour la multiplication par un scalaire :

∀ c ∈ K , ∀ u ∈ F , cu ∈ F .

13
Alors la partie F , munie de ces deux lois, a une structure de K-espace
vectoriel.
La partie F est appelé sous espace vectoriel de E.
Lemme. Soit E un K-espace vectoriel et F une partie de E. F est un
sous-espace vectoriel de E si et seulement si :
F est non vide ;
Toute combinaison linéaire de deux éléments de F appartient à F :
∀ u, v ∈ F ∀ c, d ∈ K , cu + dv ∈ F .

Exemple. L’eensemble R[x] des fonctions polynômes est un sous-espace


vectoriel de l’espace vectoriel des applications de R dans R. L’ensemble
Rn [x] des fonctions polynômes de degré inférieur ou égal à n est un sous-
espace vectoriel de l’espace vectoriel R[x].
Théorème. (Structure de l’ensemble des combinaisons linéaires)
Soit {v1 , . . . , vn } une partie finie non-vide du K-espace vectoriel E, alors
l’ensemble des combinaisons linéaires des vecteurs {v1 , . . . , vn } est un sous-
espace vectoriel de E. C’est le plus petit sous-espace vectoriel de E (au
sens de l’inclusion) contenant les vecteurs {v1 , . . . , vn } : autrement dit, il est
inclus dans tout sous-espace vectoriel contenant {v1 , . . . , vn }.
Proposition. (Intersection de deux sous-espaces) Soit E un K-espace vec-
toriel. L’intersection de deux sous-espaces vectoriels de E est un sous-espace
vectoriel de E.
Définition. La somme de deux sous-espaces vectoriels.
Proposition. Si F et G sont deux sous-espaces vectoriels du K-espace vec-
toriel E, alors F + G est un sous-espace vectoriel de E.
Définition. La somme directe de deux sous-espaces vectoriels.
Proposition. Une condition nécessaire et suffisante pour que la somme de
deux sous-espaces vectoriels F et G soit directe est que 0E s’écrive de manière
unique comme la somme d’un élément de F et d’un élément de G.
Proposition. Une condition nécessaire et suffisante pour que la somme de
deux sous-espaces vectoriels F et G soit directe est que l’intersection de F
et de G soit réduite au vecteur nul,
La somme F + G est directe ⇔ F ∩ G = {0} .

14
Définition. Les sous-espaces vectoriels supplémentaires.

Applications linéaires
Définition des applications linéaires.
Proposition. Soient E et F deux K-espaces vectoriels et f une application
de E dans F . L’application f est linéaire si et seulement si, pour tous vecteurs
u et v de E et pour tous scalaires c et d de K,

f (cu + dv) = cf (u) + df (v) .

vocabulaire.

• Soient E et F deux K-espaces vectoriels. Une application linéaire de


E dans F est aussi appelée homomorphisme d’espaces vectoriels.

• L’ensemble des applications linéaires de E dans F est noté Hom (E, F )


ou Hom K (E, F ) ou L(E, F ) ou LK (E, F ).

• Une application linéaire bijective de E sur F est appelée isomorphisme


d’espaces vectoriels.

• Une application linéaire de E dans E est appelée endomorphisme de


E.

• L’ensemble des endomorphismes de E est noté L(E) ou End (E) ou


LK (E) ou End K (E).

• Un endomorphisme bijectif de E est appelé automorphisme de E.

• L’ensemble des automorphismes de E est noté Aut (E) ou GL(E).

Proposition. Soient E et F deux espaces vectoriels sur K. L’ensemble


Hom K (E, F ) des applications linéaires de E dans F , muni des deux lois

(f + g)(u) = f (u) + g(u) et (λf )(u) = λf (u)

est un K-espace vectoriel.

15
Proposition. (Composée de deux applications linéaires) Soient E, F , G
trois K-espaces vectoriels, f une application linéaire de E dans F et g une
application linéaire de F dans G, alors g ◦ f est une application linéaire de
E dans G.
Proposition. (Linéarité de l’application réciproque d’un isomorphisme)
Soient E et F deux K-espaces vectoriels, si f est un isomorphisme de E
sur F , alors f −1 est un isomorphisme de F sur E.
Définitions de l’image et du noyau d’un homomorphisme.
Proposition. (Structure de l’image d’un sous espace vectoriel) Soit f une
application linéaire du K-espace vectoriel E dans le K-espace vectoriel F . Si
A est un sous-espace vectoriel de E, alors f (A) est un sous-espace vectoriel
de F . En particulier, Im f est un sous-espace vectoriel de F .
Proposition. Soient E et F deux K-espaces vectoriels et f une application
linéaire de E dans F . Le noyau de f est un sous-espace vectoriel de E.
Exemple. Projection p sur F parallèlement à G. L’image et le noyau de p.
Idempotent.
Théorème. (Caractérisation des applications linéaires injectives) Soient E
et F deux K-espaces vectoriels et f une application linéaire de E dans F .
L’application f est injective si et seulement si son noyau ne contient que le
vecteur nul.

Bases
Définition. (Définition d’un espace vectoriel de type fini) Un espace vecto-
riel E est dit de type fini s’il admet une famille finie de générateurs, c’est-à-
dire ∃ un entier p et p vecteurs de E, v1 , . . . , vp , telles que E = Khv1 , . . . , vp i.
Définition. Soit E un K-espace vectoriel. Une famille (v1 , v2 , . . . , vn ) de
E est dite linéairement indépendante ou libre si toute combinaison linéaire
nulle
λ1 v1 + λ2 v2 + · · · + λn vn = 0
est telle que tous ses coefficients sont nuls

λ1 = λ2 = · · · = λn = 0 .

16
Dans le cas contraire, c’est-à-dire s’il existe une combinaison linéaire nulle à
coefficients non tous nuls, on dit que la famille est linéairement dépendante ou
liée. Une telle combinaison linéaire s’appelle alors une relation de dépendance
linéaire entre les vj .
Théorème. Soit E un K-espace vectoriel. Une famille F = (v1 , v2 , . . . , vn )
de n ≥ 2 vecteurs de E est linéairement dépendante si et seulement si au
moins un des vecteurs de F est combinaison linéaire des autres vecteurs de
F.
Proposition. a) Toute partie contenant une partie liée est liée.
b) Toute partie contenue dans une partie libre est libre.
Proposition. (Adjonction d’un vecteur à une partie libre) Soient E un K-
espace vectoriel et (v1 , v2 , . . . , vn ) une partie libre de E. Si u est un vecteur
de E tel que (v1 , v2 , . . . , vn , u) soit une partie liée de E, alors le vecteur u est
combinaison linéaire des vecteurs v1 , v2 , . . . , vn .

Définition. Soit E 6= {0} un espace vectoriel sur un corps K. Une base


finie de E est un n-uplet d’éléments de E, (v1 , v2 , . . . , vn ), où n est un entier
supérieur ou égal à 1, vérifiantles deux conditions suivantes :
(1) La partie (v1 , v2 , . . . , vn ) est une partie génératrice de E.
(2) La partie (v1 , v2 , . . . , vn ) est une partie libre de E.
Théorème. Soient E un K-espace vectoriel et v1 , v2 , . . . , vn n vecteurs de
E. Les conditions suivantes sont équivalentes :
(i) Le n-uplet (v1 , v2 , . . . , vn ) est une base de E.
(ii) Tout vecteur de E s’écrit de manière unique comme combinaison
linéaire des vecteurs v1 , v2 , . . . , vn , c’est-à-dire que pour tout vecteur v de E,
il existe un n-uplet unique (α1 , . . . , αn ) des scalaires tel que

v = α1 v1 + α2 v2 + · · · + αn vn .

vocabulaire : Si v s’écrit v = α1 v1 +α2 v2 +· · ·+αn vn , les scalaires (α1 , . . . , αn )


s’appellent les coordonnées de v dans la base (v1 , v2 , . . . , vn ). On utilisera

17
souvent la matrice colonne
 
α1
 α2 
[v](v1 ,v2 ,...,vn ) =
 
.. 
 . 
αn

des coordonnées de v dans la base (v1 , v2 , . . . , vn ).


Proposition. L’application

χ : Kn → E , (α1 , α2 , . . . , αn ) 7→ α1 v1 + α2 v2 + · · · + αn vn

est un isomorphisme.
Proposition. (Première caractérisation d’une base) Soit E un espace vec-
toriel. Un n-uplet (v1 , . . . vn ) est une base de E si et seulement si l’ensemble
(v1 , . . . , vn ) est une partie libre maximale.
Proposition. (Deuxième caractérisation d’une base) Soit E un espace vec-
toriel. Un n-uplet (v1 , . . . , vn ) est une base de E si et seulement si l’ensemble
(v1 , . . . , vn ) est une partie génératrice minimale de E.
Théorème. (Théorème d’existence de parties libres et génératrices) Soit E
un K-espace vectoriel de type fini, G une partie génératrice finie de E et L
une partie libre incluse dans G. Alors, il existe une partie B vérifiant les
trois propriétés suivantes :
(i) L ⊂ B ⊂ G,
(ii) B est libre,
(iii) B engendre E.
Corollaire. (Théorème d’existence d’une base) Tout espace vectoriel de
type fini (c’est-à-dire admettant une famille finie de générateurs), non réduit
à {0}, admet une base.
Théorème. (Théorème de la “base incomplète”) Soit E un K-espace vecto-
riel de type fini, non réduit à {0}. Soit G une partie génératrice finie de E
et L une partie libre de E. Alors il existe une partie G0 de G telle que, en
notant (v1 , v2 , . . . , vn ) la partie L ∪ G0 , (v1 , v2 , . . . , vn ) soit une base de E.
Théorème. (Base d’une somme directe) Soit E un K-espace vectoriel.
Soient F et G deux sous-espaces vectoriels de E tels que E = F ⊕ G. On

18
suppose que F et G sont de type fini. Soient BF = (a1 , a2 , . . . , ar ) une
base de F et (b1 , b2 , . . . , bs ) une base de G. Alors E est de type fini et
(a1 , a2 , . . . , ar , b1 , b2 , . . . , bs ) est une base de E.

Dimension d’un espace vectoriel de type fini

Lemme. Soit E un espace vectoriel de type fini, non réduit à 0E , engendré


par une partie G de E ayant n éléments G = (g1 , g2 , . . . , gn ). Alors toute
partie F = (u1 , u2 , . . . un , un+1 ) de n + 1 éléments est liée.
Théorème. (Définition de la dimension) Dans un espace vectoriel E de type
fini, non réduit à {0E }, toutes les bases ont le même nombre d’éléments. Ce
nombre entier, taille commune de toutes les bases de E, est appelé dimension
de E sur K, et noté dimK (E) (ou seulement dim E s’il n’y a pas ambiguı̈té
sur le corps K)
Proposition. Soit E un K-espace vectoriel de dimension n non nulle, alors :
1. Toute partie libre de E a au plus n éléments.
2. Toute partie génératrice de E a au moins n éléments.
Théorème. Soient E un K-espace vectoriel de dimension n non nulle, et
u1 , u2 , . . . , un n vecteurs de E :
1. Si (u1 , u2 , . . . , un ) est une partie libre alors (u1 , u2 , . . . , un ) est une base
de E.
2. Si (u1 , u2 , . . . , un ) est une partie génératrice de E alors (u1 , u2 , . . . , un )
est une base de E.

Sous espaces vectoriels de type fini

Théorème. Soit E un K-espace vectoriel de type fini. Alors tout sous-


espace vectoriel F de E est de type fini, et sa dimension est inférieure ou
égale à celle de E ; la dimension de F est égale à celle de E si et seulement
si le sous-espace F est égal à l’espace E tout entier.
Lemme. Soient F et G deux sous-espaces vectoriels de type fini d’un K-
espace vectoriel E. Alors la somme F +G est un sous-espace vectoriel de type
fini de E et sa dimension est inférieure ou égale à la somme des dimensions

19
de F et de G. La dimension de F + G est égale à la somme des dimensions
de F et de G si et seulement si la somme est directe.
Proposition. Tout sous-espace vectoriel d’un K-espace vectoriel de type fini
admet un supplémentaire.

Rang d’une famille finie de vecteurs

Définition. (Définition du rang d’une famille finie de vecteurs) Soit E un


K-espace vectoriel ; soit (v1 , . . . , vp ) une famille finie de vecteurs de E. Le
rang de la famille (v1 , . . . , vp ) est la dimension du sous-espace vectoriel de E
engendré par les vecteurs v1 , . . . , vp .
Proposition. L’espace vectoriel engendré par une famille de vecteurs n’est
pas modifié par les trois opérations élémentaires suivantes sur les vecteurs :
– On échange deux vecteurs.
– On multiplie un vecteur de la famille par un scalaire non nul.
– On rajoute à l’un des vecteurs une combinaison linéaire des autres vec-
teurs (substitution).
Définition. On définit le rang d’une matrice comme étant le rang de ses
vecteurs colonnes.

Applications linéaires en dimension finie


Théorème. (Construction d’une application linéaire) Soient E et F deux
espaces vectoriels sur un même corps K. On suppose que l’espace vectoriel E
est de type fini et non-nul. Soit n, n ≥ 1, sa dimension. Alors, si (e1 , . . . , en )
est une base de E, pour tout n-uplet (a1 , . . . , an ) d’éléments de F , il existe
une et une seule application linéaire f de E dans F telle que :
∀ i ∈ [1, n] , f (ei ) = ai .

Définition. (Définition du rang d’une application linéaire) Soient E et F


deux espaces vectoriels sur un même corps K et f une application linéaire
de E dans F . On suppose l’espace vectoriel E de type fini. La dimension de
l’espace vectoriel Im f est appelée rang de f et notée rg (f ).
Théorème. (Théorème du rang) Soient E et F deux espaces vectoriels sur
un même corps K, E de type fini. Soit f une application linéaire de E dans

20
F . Alors
dim E = dim Ker f + dim Im f .

Théorème. Soient E et F deux espaces vectoriels de type fini sur un même


corps K. On suppose qu’ils ont même dimension. Soit f une application
linéaire de E dans F . Alors f est injective si et seulement si elle est surjective
et donc si et seulement si elle est bijective.

Matrice associée à une application linéaire


Soient E et F deux espaces vectoriels de type fini sur un même corps K.
Soit p la dimension de E. Soit BE = (e1 , . . . , ep ) une base de E. Soit n la
dimension de F ; soit BF = (f1 , . . . , fn ) une base de F . Soit φ une application
linéaire de E dans F . L’étude des propriétés des applications linéaires entre
deux espaces de type fini permet d’affirmer que :
- l’application linéaire est déterminée de façon unique par l’image d’une
base de E, donc par les vecteurs φ(e1 ), φ(e2 ), . . . φ(ep ). Si j est un entier
compris entre 1 et p, φ(ej ) est un vecteur de F et s’écrit de manière unique
comme combinaison linéaire des vecteurs de la base BF = (f1 , f2 , . . . , fn ) de
F . Il existe n scalaires uniques a1,j , a2,j , . . . , an,j tels que
φ(ej ) = a1,j f1 + a2,j f2 + · · · + an,j fn .
Donc, l’application linéaire est entièrement déterminée par les coefficients
(ai,j ) avec (i, j) ∈ [1, n] × [1, p]. Il est donc naturel d’introduire la définition
suivante :
Définition. On appelle matrice associée à l’application linéaire φ par rap-
port aux bases BE et BF la matrice à n lignes et p colonnes dont la j-ième
colonne est constituée par les coordonnées du vecteur φ(ej ) dans la base
BF = (f1 , f2 , . . . , fn ) à savoir
 
a1,j
 a2,j 
 ..  .
 
 . 
an,j

Notation : la matrice associée à l’application linéaire φ par rapport aux


bases BE et BF sera notée

21
[φ]B
BE .
F

Proposition. Soient E et F deux espaces vectoriels de type fini sur un


même corps K. Soient BE et BF des bases de E et F respectivement. Soient
h et g deux applications linéaires de E dans F et α un scalaire quelconque.
Alors on a :
[h + g]B BF BF
BE = [h]BE + [g]BE ,
F

[αh]B BF
BE = α[h]BE .
F

D’après la proposition précédente, l’application

L : Hom (E, F ) → Mdim F,dim E (K) , h 7→ [h]B


BE
F

est linéaire. En fait, l’application L est une bijection.


Théorème. (Matrice associée à la composée de deux applications linéaires)
Soient E, F et G trois espaces vectoriels de type fini sur un même corps K, de
dimension respectivement égale à p,n et q. Soient BE = (e1 , . . . , ep ) une base
de E, BF = (f1 , f2 , . . . , fn ) une base de F et BG = (g1 , g2 , . . . , gq ) une base
de G. Soient φ une application linéaire de E dans F et ψ une application
linéaire de F dans G. Alors on a :

[ψ ◦ φ]B BG BF
BE = [ψ]BF [φ]BE .
G

Théorème. (Caractérisation de la matrice d’un isomorphisme) Soient E et


F deux K-espaces vectoriels de type fini, de même dimension. Une condition
nécessaire et suffisante pour qu’une application φ linéaire de E dans F soit
un isomorphisme est que la matrice associée à φ par rapport à des bases BE
et BF quelconques de E et F respectivement, soit inversible.
De plus, si φ est un isomorphisme de E dans F , et si A = [φ]BBE , la matrice
F

de φ−1 par rapport aux bases BF et BE est égale à A−1 , inverse de la matrice
A. Cela s’écrit :
([φ]BF −1
BE ) =][φ−1 ]B
BF .
E

Corollaire. Soit E un K-espace vectoriel de type fini. Une condition


nécessaire et suffisante pour qu’une application linéaire f de E dans E soit
un automorphisme est que la matrice associée à f dans une base quelconque
de E soit inversible.

22
De plus, si f est un automorphisme de E et si A = [f ]BE , la matrice de
−1
f dans la base BE est égale à inverse de la matrice A. Cela s’écrit :
([f ]BE )−1 = [f −1 ]BE .

Proposition. Soit E un espace vectoriel de dimension finie et BE une base


de E. Soit F un espace vectoriel de dimension finie et BF une base de F .
Soit φ : E → F une application linéaire et [φ]B
BE la matrice de φ dans les
F

bases BE et BF . On a
[φ(x)]BF = [φ]B
BE [x]BE .
F

Formule de changement de bases


Définition. Soit B une base de E. Soit B 0 une autre base définie par la
donnée des coordonnées de ses vecteurs dans la base B.
On appelle matrice de passage de la base B à la base B 0 et on note PBB 0
la matrice carrée d’ordre n dont la j-ième colonne est formée des coordonnées
du j-ième vecteur de la base B 0 , par rapport à la base B.
Proposition. Soient B, B 0 et B 00 trois bases d’un espace vectoriel de type
fini E. Alors
PBB 00 = PBB 0 PB 0 B 00 .

Proposition. (Inverse d’une matrice de passage) La matrice de passage


d’une base B à une base B 0 est inversible et son inverse est égale à la matrice
de passage de la base B 0 à la base B.
Proposition. Soit E un K-espace vectoriel de dimension n. Soit B =
(e1 , e2 , . . . , en ) et B 0 = (e01 , e02 , . . . , e0n ) deux bases de E. P
Soit PBB 0 la matrice
de passage de B à B 0 . Soit x un vecteur de E. Si x = ni=1 xi ei , la matrice
colonne des coordonnées de x dans la base B est
 
x1
 x2 
[x]B =  ..  .
 
 . 
xn
De même notons [x]B 0 la matrice colonne des coordonnées de x dans la base
B 0 . On a la relation
[x]B = PBB 0 [x]B 0 .

23
Théorème. (Formule de changement de base) Soient E et F deux K-espaces
vectoriels de type fini, BE et BE0 deux bases de E, et BF et BF0 deux bases
de F . Soit φ une application linéaire de E dans F .
Alors, la matrice associée à φ par rapport aux bases BE et BF , et la
matrice associée à φ par rapport aux bases BE0 et BF0 sont liées par la formule :
B0
[φ]BF0 = PBF0 BF [φ]BF
0 0
−1 BF
BE PBE BE = (PBF BF ) [φ]BE PBE BE .
0
E

Corollaire. (Formule de changement de bases pour les endomorphismes)


Soit E un K-espace vectoriel de dimension n. Soient BE et BE0 deux bases de
E et P = PBE BE0 la matrice de passage de BE à BE0 . Soit φ un endomorphisme
de E. Notons [φ]BE (respectivement, [φ]BE0 ) la matrice de φ dans la base BE
(respectivement, BE0 ). On a

[φ]BE0 = P −1 [φ]BE P .

Théorème. (Matrice inversible et rang) Une matrice carrée d’ordre n est


inversible si et seulement si elle est de rang n.

Théorie des déterminants


Définition et premières propriétés

Théorème. (Théorème d’existence et d’unicité du déterminant) Il existe


une unique application de Mn (K) dans K, appelée déterminant, telle que
(D1) Le déterminant est linéaire par rapport à chaque vecteur-colonne,
les autres étant fixés.
(D2) Si une matrice A a deux vecteurs colonnes égaux, alors son déter-
minant est nul.
(D3) Le déterminant de la matrice identité In vaut 1.
Proposition. Soit A une matrice n × n. Soit A0 la matrice obtenue en
échangeant deux colonnes distinctes de A. Alors on a

det A0 = − det A .

Proposition. Soit A une matrice n × n. Soit A0 la matrice obtenue en


ajoutant à une colonne de A une combinaison linéaire des autres colonnes de

24
A. Alors on a
det A0 = det A .

Corollaire. Si une colonne de A est combinaison linéaire des autres colonnes


alors det A = 0.

Déterminants de matrices particulières

Proposition. Si A est une matrice triangulaire supérieure ou inférieure,


alors on a
det A = a11 a22 · · · ann .
Autrement dit, pour une matrice triangulaire, le déterminant est égal au
produit des termes diagonaux.
Corollaire. Soit E une matrice élémentaire de la méthode de Gauss.
i) Si E est la matrice d’une substitution de lignes, alors det E = 1.
ii) Si E est la matrice d’un échange de lignes, alors det E = −1.
iii) Si E est la matrice d’une multiplication d’une ligne par λ 6= 0, alors
det E = λ.
Dans tous les cas, ce déterminant est non nul.
Remarque. Les matrices élémentaires de la méthode de Gauss sont soit
triangulaires (substitution), soit symétriques c’est à dire égales à leur trans-
posée (échange de lignes et homothétie). Par conséquent, det(E) = det(E T ).
Notation : Soit M une matrice carrée d’ordre n. Si l’on supprime une ligne
et une colonne dans M , la matrice obtenue est à n − 1 lignes et colonnes. On
note la matrice obtenue en supprimant la i-ème ligne et la j-ième colonne
Mi,j . Le théorème d’existence peut s’énoncer de la façon suivante :
Théorème. (Existence du déterminant) Les formules suivantes :
• Si a est un élément quelconque de K, det(a)
f := a.
• Si M = (mi,j ) est une matrice carrée d’ordre n,

det(M
f ) := (−1)1+1 m1,1 det(M
f 1,1 ) + (−1)
1+2
m1,2 det(M
f 1,2 ) + · · ·

+(−1)1+n m1,n det(M


f 1,n )

25
définissent par récurrence, pour tout entier n supérieur ou égal à 1, une
application det
f de Mn (K) dans K qui satisfait aux propriétés (D1)–(D3).
Théorème. (Unicité du déterminant) Soit Γ une application de Mn (K) dans
K qui satisfait aux propriétés (D1)–(D3). Alors,

Γ = det
f .

Donc, l’application det Mn (K) → K est bien caractrisée par les propriétés
(D1)–(D3).
Remarque. Soit M une matrice de Mn (K). Définissons la fonction det
f i par

f i (M ) = (−1)i+1 mi,1 det(Mi,1 ) + (−1)i+2 mi,2 det(Mi,2 ) + · · ·


det

+(−1)i+n mi,n det(Mi,n ) .


Le même argument, comme dans la preuve du théorème d’existence, montre
que l’application det
f i satisfait les propriétés (D1)–(D3). Donc, par l’unicité
du déterminant, on a
det
f i = det .

Propriétés du déterminant

Théorème. (multiplicativité du déterminant) Pour tout n = 1, 2, 3, . . . et


deux matrices quelconques de Mn (K) on a

det(AB) = det A det B .

Proposition. On a
det(AT ) = det A .

Proposition. Une matrice A carrée d’ordre n est inversible si et seulement


si son déterminant est non nul. De plus si A est inversible, alors
1
det(A−1 ) = .
det A

Proposition. Deux matrices semblables ont même déterminant.


Remarque. Tout ce que l’on a dit des déterminants à propos des colonnes est
donc vrai pour les lignes. Ainsi, le déterminant est multilinéaire par rapport

26
aux lignes, si une matrice a deux lignes égales, son déterminant est nul, on ne
modifie pas un déterminant en ajoutant à une ligne une combinaison linéaire
des autres lignes, etc.
Définition. Soit A une matrice n × n et Aij la matrice (n − 1) × (n − 1)
obtenue en effaçant la ligne i et la colonne j de A. On appelle mineur de A
relatif à aij le déterminant ∆ij = det Aij . On appelle cofacteur de A relatif
à aij le nombre Cij = (−1)i+j ∆ij .
Théorème. (développement suivant une ligne ou une colonne) On a les
formules suivantes :
n
X n
X
i+j
∀ i , det A = (−1) aij ∆ij = aij Cij
j=1 j=1

(développement par rapport à la ligne i), et


n
X n
X
∀ i , det A = (−1)i+j aij ∆ij = aij Cij
i=1 i=1

(développement par rapport à la colonne j).

Déterminant d’un endomorphisme

Théorème. (définition du déterminant d’un endomorphisme) Soit E un K-


espace vectoriel de dimension finie et f un endomorphisme de E. Toutes
les matrices associées à f par rapport à des bases différentes ont le même
déterminant appelé déterminant de f et noté det(f ).
Théorème. (Propriétés du déterminant d’un endomorphisme) Soit E un
K-espace vectoriel de dimension finie.
1. det(IdE ) = 1.
2. Soient f et g deux endomorphismes de E. On a

det(f ◦ g) = det(f ) det(g) .

3. Un endomorphisme f de E est inversible si et seulement si det(f ) 6= 0.

27
Expression de l’inverse d’une matrice à l’aide du déterminant

Définition. On introduit la matrice des cofacteurs de A,

cof A = (Cij ) avec Cij = (−1)i+j det Aij .

Théorème. On a pour toute matrice A :

A(cof A)T = (cof A)T A = (det A)In .

En particulier, si A est inversible, alors


1
A−1 = (cof A)T .
det A

Application des déterminants à l’indépendance linéaire de vecteurs


Soit E un K-espace vectoriel de dimension n. Soit B une base de E. Soient
v1 , . . . , vn n vecteurs de E. Soit M la matrice de Mn (K) dont la j-ième
colonne est formée des coordonnées du vecteur vj par rapport à la base B.
On appelle déterminant des vecteurs v1 , . . . , vn et on note detB (v1 , . . . , vn ) le
déterminant de la matrice M .
Théorème. Soit E un K-espace vectoriel de dimension n. Soient n vecteurs
de E et B une base de E. Ces vecteurs sont linéairement indépendants si et
seulement si
detB (v1 , . . . , vn ) 6= 0 .

Définition. Soit n et q deux entiers naturels. Soit A = (ai,j ) une matrice à


n lignes et q colonnes à coefficients dans K. Soit p un entier inférieur à n et à
q. On appelle mineur d’ordre p le déterminant d’une matrice carrée d’ordre
p obtenue à partir de A en supprimant n − p lignes et q − p colonnes.
Théorème. (Caractérisation de l’indépendance linéaire de p vecteurs) Soit
E un K-espace vectoriel de dimension n et (e1 , . . . , en ) une base de E. Soit p
un entier inférieur ou égal à n. Soient
P v1 , . . . , vp p vecteurs de E. Pour tout j
compris entre 1 et n, on pose vj = ni=1 ai,j ei . Alors les p vecteurs (v1 , . . . , vp )
sont linéairement indépendants si et seulement si il existe un mineur d’ordre
p non nul extrait de la matrice (ai,j ) de Mn,p (K).

28
Application à la détermination du rang d’une matrice

Théorème. Le rang d’une matrice est le plus grand entier r tel qu’il existe
une matrice carrée d’ordre r extraite de M de déterminant non nul.
Proposition. Soit A une matrice à n lignes et p colonnes. Le rang de A est
égal au rang de sa transposée.
Corollaire. On ne change pas le rang d’une matrice par les opérations
élémentaires suivantes sur les lignes :
• Permutation de deux lignes.
• On multiplie une ligne par un scalaire non nul.
• On ajoute à une ligne un multiple d’une autre ligne.

Récurrences linéaires d’ordre deux


Comme application des notions de ce chapitre, nous proposons d’étudier
l’ensemble des solutions de l’équation de récurrence suivante :

(RL) ∀ n ∈ N un+2 = αun+1 + βun ,

oú α et β sont deux réels fixés.


Définition. Une suite réelle u = (un ) est une application de N dans R.
L’ensemble des suites réelles est noté RN . L’ensemble RN est muni d’une loi
de composition interne et d’une loi de composition externe :
• lois interne (u + v)n := un + vn ;
• loi externe (λu)n = λun .
Ainsi, RN muni de ces deux lois est un espace vectoriel sur R.
Parmi les suites de référence citons:
• Suites arithmétiques : ce sont les suites un = (a + nr) , a ∈ R , r ∈ R.
• Suites géométriques : ce sont les suites un = (arn ) , a ∈ R , r ∈ R.
• Suites puissances : ce sont les suites un = na , a ∈ R.
Nous notons E l’ensemble des suites de réels qui vérifient (RL).
Proposition. L’ensemble E des suites de réels vérifiant (RL) est un sous-
espace vectoriel, de dimension 2, de RN .

29
L’équation caractéristique associée à (RL) est

(ECA) r2 = αr + β .

Théorème. Si l’équation caractéristique associée possède


1. deux racines réelles distinctes r1 et r2 , alors ((r1n ), (r2n )) est une base
de E :
E = {(λr1n + µr2n ) , λ, µ ∈ R} .
2. une racine double r, alors ((rn ), (nrn )) est une base de E :

E = {(λrn + µnrn ) , λ, µ ∈ R} .

3. deux racines complexes conjuguées ρ eiθ et ρ e−iθ ,


alors ((ρn cos(nθ)), (ρn sin(nθ))) est une base de E :

E = {(λρn cos(nθ) + µρn sin(nθ)) , λ, µ ∈ R} .

30
Exemples de calcul d’un déterminant à partir de ses propriétés.
1. Une matrice A est dite antisymétrique si AT = −A. Pour une telle matrice
de taille n, on a

det A = det AT = det(−A) = (−1)n det A .

Ainsi, si n est impair, alors det A = − det A, donc det A = 0.


2. Calculons le déterminant d’une matrice faite de blocs :
 
A C
Z= ,
0 B

où A et B sont des matrices carrées de tailles arbitraires. Le déterminant de


Z est une fonction, appelons-le γ, de la matrice B. La fonction γ est multi-
linéaire et alternée dans les lignes de B, elle est donc égale au déterminant
de B fois la valeur de la fonction γ à l’identité,
 
0 0 A C
det Z = det B det Z , où Z = .
0 Id

Nous avons déjà calculé le déterminant d’une matrice similaire (en fait trans-
posée à celle-ci, pour Z 0 il faut le déterminant développer par rapport à la
dernière ligne, puis une avant la dernière etc.) Le déterminant de Z 0 est égal
à det A, donc
det Z = det A det B .

Interprétation géométrique des déterminants


En dimension 2, deux vecteurs v1 , v2 déterminent un parallélogramme.
Proposition. La surface du parallélogramme est donnée par | det(v1 v2 )|.
Le cas tridimensionnel se traite de façon analogue. En dimension 3, trois
vecteurs v1 , v2 , v3 déterminent un parallélépipède.
De façon analogue, on montre que le volume du parallélépipède est donné
par | det(v1 v2 v3 )|.
L’assertion similaire est valable dans n’importe quelle dimension.

31
Espaces euclidiens
Définition. Soit V un K-espace vectoriel. Une forme bilinéaire sur V est
une application m : V × V → K telle que
• pour tout y, m1 (x) := m(x, y) est linéaire ;
• pour tout x, m2 (y) := m(x, y) est linéaire.
On dit que m est symétrique si m(x, y) = m(y, x) ∀ x, y ∈ V .
Si K = R on dit que
• m est non-négative si m(x, x) ≥ 0 ∀ x ∈ V ;
• m est positive si m est non-négative et m(x, x) = 0 seulement pour
x = 0.

Lorsque m est symétrique, on dit que M (x) := m(x, x) est la forme


quadratique associée à m.
Lemme. On peut retrouver m à partir de M .
***
Dans une base B = {ei }ni=1 de V , pour x =
P P
i xi ei et y = j yi ei , on a
X X X X X
m(x, y) = m( xi ei , yj ej ) = xi m(ei , yj ej ) = xi yj m(ei , ej ) ,
i j i ij

ce qui signifie que m est uniquement déterminée par ces valeurs m(ei , ej ) sur
la base B. La Pmatrice de m dans la base B est (mB )ij = m(ei , ej ), donc on
a m(x, y) = ij xi yj (mB )ij .
Lemme.
P (Changement de base) Soit B 0 = {e0i }ni=1 une autre base et e0j =
i Cji ei , C la matrice de passage. Alors,
X
(mB 0 )ij = Cik Cjl (mB )kl .
kl

Définition. Un produit scalaire est une forme bilinéaire symétrique définie


positive. Un espace euclidien est un espace vectoriel de dimension finie sur
R muni d’un produit scalaire.
Exemple. Sur Rn on pose hx, yi := i xi yi . C’est un produit scalaire.
P

32
Exemple. Sur Mn (R) on pose hA, Bi := Tr(AB). C’est un produit scalaire.
Théorème. (inégalité de Cauchy–Schwarz) Soit V un espace euclidien. Pour
tout x, y ∈ V on a
hx, yi2 ≤ hx, xihy, yi ,
avec égalité si et seulement si x et y sont colinéaires.

Algorithme de Gram–Schmidt
Soit V un espace euclidien. Une base B = {ei }ni=1 de V est dite orthonormale
si
hej , ek i = δjk ∀ j, k .

Remarque. Soit {fi }pi=1 une famille orthonormale. Alors, c’est une famille
libre. En effet, supposons
λ1 f1 + · · · + λp fp = 0 .
Alors,
0 = h0, fj i = hλ1 f1 + · · · + λp fp , fj i = λj ∀ j = 1, . . . , p .
L’algorithme de Gram–Schmidt fabrique une base orthonormale à partir
d’une base quelconque. En particulier, pour tout espace euclidien, des bases
orthonormales existent, c’est-à-dire que pour toute forme bilinéaire positive
m il existe une base B = {ei }ni=1 pour laquelle la matrice de m est la matrice
identité, m(ej , ek ) = δjk ∀ j, k.

L’algorithme. Soit {a1 , . . . , an } une base de V . On pose


a1
e1 = ,
||a1 ||
où ||a1 || est la “norme” du vecteur e1 , ||a1 || = ha1 , a1 i1/2 ; c’est la “normali-
sation” du vecteur a1 ,
||e1 || = 1 ,
ce qui est toujours possible car V est un espace euclidien et donc ||a1 || > 0.
Ensuite, nous cherchons un vecteur a2 +µe1 (c’est un vecteur dans le plan
engendré par a1 et a2 ), orthogonal à e1 :
ha2 + µe1 , e1 i = 0 ⇒ ha2 , e1 i + µ = 0 .

33
Cette équation a une solution unique, que nous normalisons pour définir le
vecteur e2 ,
a2 + µe1
e2 = .
||a2 + µe1 ||
Notons que le plan engendré par e1 et e2 est exactement le plan engendré par
a1 et a2 .
Si e1 , . . . , ek ont construit et L(e1 , . . . , ek ) (l’espace de dimension k, en-
gendré par e1 ,. . . ,ek ) est le même que l’espace L(a1 , . . . , ak ), on cherche un
vecteur ak+1 + µ1 e1 + . . . µk ek , orthogonal aux vecteurs e1 , . . . , ek :

hak+1 + µ1 e1 + . . . µk ek , ej i = 0 , j = 1, . . . , k ,

qui est un système linéaire très simple :

hak+1 , ej i + µj = 0 .

La solution (unique) existe évidemment : µj = −hak+1 , ej i et on normalise :


ak+1 + µ1 e1 + . . . µk ek
ek+1 = .
||ak+1 + µ1 e1 + . . . µk ek ||
Comme ak+1 est linéairement indépendent des vecteurs précedents, le déno-
minateur est non-nul et L(e1 , . . . , ek , ek+1 ) = L(a1 , . . . , ak , ak+1 ).
On continue jusqu’à ce que la construction de la base soit terminée. I

Limites
Définition. Soit (un ) une suite de réels. On dit que la suite (un ) est :
• constante si ∀ n ∈ N , un+1 = un ;
• croissante si ∀ n ∈ N , un+1 ≥ un ;
• décroissante si ∀ n ∈ N , un+1 ≤ un ;
• strictement croissante si ∀ n ∈ N , un+1 > un ;
• strictement décroissante si ∀ n ∈ N , un+1 < un ;
• monotone si elle est croissante ou décroissante ;
• majorée si {un , n ∈ N} est majoré ;
• minorée si {un , n ∈ N} est minoré ;

34
• bornée si {un , n ∈ N} est borné ;
• périodique si ∃ p ∈ N∗ , ∀ n ∈ N , un+p = un .
Il arrive qu’une suite ne soit définie que sur une partie de N: par exemple
(1/n)n∈N∗ . On sera également amené à réduire la suite aux indices au-delà
d’un certain entier n0 : (un )n>n0 . L’expression “à partir d’un certain rang”
reviendra souvent dans ce qui suit. Dire que la suite (un )n∈N possède la
propriété P à partir d’un certain rang signifie que la suite (un )n≥n0 la possède
pour un certain n0 . On dit aussi “P est vraie pour n assez grand”. Voici
quelques exemples.
Définition. Soit (un )n∈N une suite de réels. On dit que la suite (un ) est
• constante à partir d’un certain rang (on dit aussi stationnaire) si ∃ n0 ∈
N , ∀ n ≥ n0 , un+1 = un ;
• croissante à partir d’un certain rang si ∃ n0 ∈ N , ∀ n ≥ n0 , un+1 ≥ un ;
• périodique à partir d’un certain rang si ∃ n0 ∈ N , ∃ p ∈ N∗ , ∀ n ≥
n0 , un+p = un .
Lemme. Si la suite (un ) est “majorée à partir d’un certain rang”, alors elle
est majorée tout court.
Les opérations sur les réels s’étendent aux suites en des opérations terme
à terme.
• addition : (un ) + (vn ) = (un + vn ),
• multiplication : (un )(vn ) = (un vn ),
• multiplication par un réel : λ(un ) = (λun ),
• comparaison : (un ) ≤ (vn ) ⇔ ∀ n ∈ N , un ≤ vn .
L’addition a les mêmes propriétés que celle des réels : RN muni de
l’addition est un groupe commutatif. Muni de l’addition et de la multi-
plication par un réel, c’est un espace vectoriel.
Définition. Etant donnée une suite (un ), on appelle suite extraite ou sous-
suite, une suite formée de certains termes de (un ), c’est-à-dire une suite de
la forme (vk ) = (uφ(k) ), où φ est une application strictement croissante de N
dans N.

35
Convergence
On dit que la suite (un ) converge vers un réel l (sa limite) si tout intervalle
ouvert contenant l, contient aussi tous les un pour n assez grand.
Définition. Soit (un ) une suite de réels et l un réel. On dit que la suite (un )
converge vers l, (ou tend vers l, ou a pour limite l) si :

∀  > 0 , ∃ n0 ∈ N , ∀ n ≥ n0 , |un − l| ≤  .

On notera :
lim un = l ou bien un −−−→ l .
n→∞ n→+∞

On étend la notion de convergence aux limites infinies de la façon suivante.


Définition. Soit (un ) une suite de réels.
1. On dit que (un ) tend vers +∞ si

∀ A ∈ R , ∃ n0 ∈ N , ∀ n ≥ n0 , u n ≥ A .

2. On dit que (un ) tend vers −∞ si

∀ A ∈ R , ∃ n0 ∈ N , ∀ n ≥ n0 , u n ≤ A .

Proposition. Soit (un ) une suite de réels :


1. si (un ) converge, alors sa limite est unique ;
2. si (un ) converge vers une limite finie, alors (un ) est bornée ;
3. si pour tout n, un ∈ N, et si (un ) converge vers une limite finie, alors
(un ) est constante à partir d’un certain rang ;
4. si (un ) converge vers l, alors toute sous-suite de (un ) converge vers l ;
5. si les deux suites extraites (u2k )k∈N et (u2k+1 )k∈N convergent vers la
même limite l (finie ou infinie), alors (un )n∈N converge vers l.

Opérations sur les limites

Lemme. 1. La somme de deux suites convergeant vers 0 converge vers 0.


2. Le produit d’une suite convergeant vers 0 par une suite bornée, con-
verge vers 0.

36
Théorème. 1. La somme de deux suites convergeant vers une limite finie
est convergente et sa limite est la somme des limites.
2. Le produit de deux suites convergeant vers une limite finie est conver-
gent et sa limite est le produit des limites.
Théorème. 1. Toute suite croissante et majorée converge vers sa borne
supérieure.
2. Toute suite croissante et non majorée tend vers +∞.
3. Toute suite décroissante et minorée converge vers sa borne inférieure.
4. Toute suite décroissante et non minorée tend vers −∞.
Définition. Soient (un ) et (vn ) deux suites de réels. Elles sont dites adja-
centes si
1. (un ) est croissante,
2. (vn ) est décroissante,
3. (vn − un ) tend vers 0.
Proposition. Deux suites adjacentes convergent vers la même limite.
Théorème. Soient (un ) et (vn ) deux suites de réels convergentes. Si pour
tout n ∈ N, un ≤ vn , alors :

lim un ≤ lim vn .
n→∞ n→∞

Théorème. Soient (un ) et (vn ) deux suites de réels telles que (vn ) tend vers
0. Si pour tout n ∈ N, |un | ≤ |vn |, alors un tend vers 0.
Corollaire (théorème des gendarmes). Soient (un ), (vn ) et (wn ) trois
suites de réels telles que (un ) et (wn ) convergent vers la même limite l, et
pour tout n ∈ N,
un ≤ vn ≤ wn ,
alors (vn ) converge vers l.
Théorème. Soient (un ) et (vn ) deux suites de réels telles que pour tout
n ∈ N, un ≤ vn .
1. Si un tend vers +∞ alors vn tend vers +∞.
2. Si vn tend vers −∞ alors un tend vers −∞.
Définition. Soient (un ) et (vn ) deux suites de réels.

37
1. On dit que la suite (un ) est dominée par la suite (vn ) si :

∃ M ∈ R , ∀ n ∈ N , |un | ≤ M |vn | .
On écrit un = O(vn ), qui se lit “un est un grand O de vn ”.
2. On dit que la suite (un ) est négligeable devant la suite (vn ) si :

∀  > 0 , ∃ n0 , ∀ n ≥ n0 , |un | ≤ |vn | .

On écrit un = o(vn ), qui se lit “un est un petit o de vn ”.


3. On dit que la suite (un ) est équivalente à la suite (vn ) si :

∀  > 0 , ∃ n0 , ∀ n ≥ n0 , |un − vn | ≤ |vn | .

On écrit un ∼ vn , qui se lit “un est équivalent à vn ”.


Proposition. Soient (un ) et (vn ) deux suites de réels. On suppose que les
vn sont tous non nuls. Alors :
1. (un ) est dominée par (vn ) si et seulement si (un /vn ) est bornée :

un
∃M ∈R, ∀n∈N, ≤M .
vn

2. (un ) est négligeable devant (vn ) si et seulement si (un /vn ) tend vers 0 :

un
∀  > 0 , ∃ n0 , ∀ n ≥ n0 , ≤.
vn

3. (un ) est équivalente à (vn ) si et seulement si (un /vn ) tend vers 1:

un
∀  > 0 , ∃ n0 , ∀ n ≥ n0 , −1 ≤ .
vn

Théorème. Soit a un réel strictement positif et r un réel strictement


supérieur à 1. Alors :
1. rn = o(n!) ;
2. na = o(rn ) ;
3. ln(n) = o(na ).

38

Vous aimerez peut-être aussi