Vous êtes sur la page 1sur 179

COURS DE MATHÉMATIQUES

ALGÈBRE LINÉAIRE

Auteur : Professeur Samir Essid

Université de Tunis El Manar


Faculté des Sciences Économiques et de Gestion de Tunis

Janvier 2023

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 1/ 65


Plan du cours

Chapitre 1 : Les Structures Algébriques


Chapitre 2 : Les Espaces Vectoriels
Chapitre 3 : Les Applications Linéaires

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 2/ 65


Plan du cours

Chapitre 1 : Les Structures Algébriques


Chapitre 2 : Les Espaces Vectoriels
Chapitre 3 : Les Applications Linéaires

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 2/ 65


Plan du cours

Chapitre 1 : Les Structures Algébriques


Chapitre 2 : Les Espaces Vectoriels
Chapitre 3 : Les Applications Linéaires

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 2/ 65


Chapitre 1 : Les Structures Algébriques

Chapitre 1 : Les Structures Algébriques

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 3/ 65


Chapitre 1 : Les Structures Algébriques
1.1 Introduction

Ce premier chapitre du cours d’algèbre linéaire consiste essentiellement en une


énumération et une classification de la plupart des structures algébriques usuelles.

Par définition, une structure algébrique est formée d’un ensemble combiné à une
ou plusieurs lois de composition, le tout satisfaisant un certain nombre d’axiomes.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 4/ 65


Chapitre 1 : Les Structures Algébriques
1.2 Le raisonnement par récurrence

On présente un des grands principes de raisonnement en mathématiques : le prin-


cipe de raisonnement par récurrence. Son but est de prouver qu’une propriété
P(n) qui dépend d’un entier naturel n est vérifiée pour tout entier n ≥ n0 .

Méthode 1
Soit P(n) une propriété dépendant de l’entier naturel n.
i) On montre que P(n) est vraie pour un certain entier n0 .
ii) On suppose P(n) vraie, ∀ n ≥ n0 , et on montre que P(n + 1) est aussi vraie.
Ainsi, on peut en conclure que pour tout n ≥ n0 , P(n) est vraie.

Exercice
Montrer que pour tout n ∈ N∗ , on a la propriété P(n) suivante :
1 1 1 n
P(n) : + + ... + =
1×2 2×3 n(n + 1) n+1

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 5/ 65


Chapitre 1 : Les Structures Algébriques
1.2 Le raisonnement par récurrence

On présente un des grands principes de raisonnement en mathématiques : le prin-


cipe de raisonnement par récurrence. Son but est de prouver qu’une propriété
P(n) qui dépend d’un entier naturel n est vérifiée pour tout entier n ≥ n0 .

Méthode 1
Soit P(n) une propriété dépendant de l’entier naturel n.
i) On montre que P(n) est vraie pour un certain entier n0 .
ii) On suppose P(n) vraie, ∀ n ≥ n0 , et on montre que P(n + 1) est aussi vraie.
Ainsi, on peut en conclure que pour tout n ≥ n0 , P(n) est vraie.

Exercice
Montrer que pour tout n ∈ N∗ , on a la propriété P(n) suivante :
1 1 1 n
P(n) : + + ... + =
1×2 2×3 n(n + 1) n+1

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 5/ 65


Chapitre 1 : Les Structures Algébriques
1.2 Le raisonnement par récurrence

On présente un des grands principes de raisonnement en mathématiques : le prin-


cipe de raisonnement par récurrence. Son but est de prouver qu’une propriété
P(n) qui dépend d’un entier naturel n est vérifiée pour tout entier n ≥ n0 .

Méthode 1
Soit P(n) une propriété dépendant de l’entier naturel n.
i) On montre que P(n) est vraie pour un certain entier n0 .
ii) On suppose P(n) vraie, ∀ n ≥ n0 , et on montre que P(n + 1) est aussi vraie.
Ainsi, on peut en conclure que pour tout n ≥ n0 , P(n) est vraie.

Exercice
Montrer que pour tout n ∈ N∗ , on a la propriété P(n) suivante :
1 1 1 n
P(n) : + + ... + =
1×2 2×3 n(n + 1) n+1

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 5/ 65


Chapitre 1 : Les Structures Algébriques
1.2 Le raisonnement par récurrence

Solution
Appliquons la méthode 1 ci-dessus afin de prouver la propriété P(n).
1 1 1
i) P(1) est vraie puisque = =
1×2 2 1+1
ii) Soit n ≥ 1 avec P(n) vraie. Montrons que P(n + 1) est aussi vraie.
1 1 1 n 1
+ ... + + = + car P(n) vraie.
1×2 n(n + 1) (n + 1)(n + 2) n+1 (n + 1)(n + 2)
2
n 1 n(n + 2) + 1 (n + 1) n+1
Or : + = = = .
n+1 (n + 1)(n + 2) (n + 1)(n + 2) (n + 1)(n + 2) n+2
Donc P(n + 1) est vraie. En conclusion, pour tout n ∈ N∗ , P(n) est vraie.

Méthode 2
Soit P(n) une propriété dépendant de l’entier naturel n.
i) On montre que P(n0 ), P(n0 + 1), ..., P(n0 + p) sont vraies.
ii) On suppose P(n0 ), ..., P(n0 + p), ..., P(n) vraies, et on montre que P(n + 1) est
aussi vraie.
Ainsi, on peut en conclure que pour tout n ≥ n0 , P(n) est vraie.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 6/ 65


Chapitre 1 : Les Structures Algébriques
1.2 Le raisonnement par récurrence

Solution
Appliquons la méthode 1 ci-dessus afin de prouver la propriété P(n).
1 1 1
i) P(1) est vraie puisque = =
1×2 2 1+1
ii) Soit n ≥ 1 avec P(n) vraie. Montrons que P(n + 1) est aussi vraie.
1 1 1 n 1
+ ... + + = + car P(n) vraie.
1×2 n(n + 1) (n + 1)(n + 2) n+1 (n + 1)(n + 2)
2
n 1 n(n + 2) + 1 (n + 1) n+1
Or : + = = = .
n+1 (n + 1)(n + 2) (n + 1)(n + 2) (n + 1)(n + 2) n+2
Donc P(n + 1) est vraie. En conclusion, pour tout n ∈ N∗ , P(n) est vraie.

Méthode 2
Soit P(n) une propriété dépendant de l’entier naturel n.
i) On montre que P(n0 ), P(n0 + 1), ..., P(n0 + p) sont vraies.
ii) On suppose P(n0 ), ..., P(n0 + p), ..., P(n) vraies, et on montre que P(n + 1) est
aussi vraie.
Ainsi, on peut en conclure que pour tout n ≥ n0 , P(n) est vraie.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 6/ 65


Chapitre 1 : Les Structures Algébriques
1.2 Le raisonnement par récurrence

Exercice
Soit (an )n∈N la suite définie par : a0 = 1, a1 = −1 et an+2 +an+1 −an = 0, ∀n ∈ N.
Montrer que an est un entier relatif (an ∈ Z) pour tout n ∈ N.

Solution
Appliquons la méthode 2 ci-dessus afin de prouver la propriété P(n) : an ∈ Z.
i) Comme a0 = 1 et a1 = −1 par hypothèse, alors P(0) et P(1) sont vraies.
ii) Pour n ≥ 1, on suppose que P(0), P(1), ..., P(n) sont vraies et montrons
que P(n + 1) est aussi vraie.
On a : an+1 = −an + an−1 avec an ∈ Z et an−1 ∈ Z car P(n − 1) et P(n) sont
vraies. Ainsi, −an + an−1 = an+1 ∈ Z et par suite P(n + 1) est vraie.
En conclusion, pour tout n ∈ N, P(n) est vraie.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 7/ 65


Chapitre 1 : Les Structures Algébriques
1.2 Le raisonnement par récurrence

Exercice
Soit (an )n∈N la suite définie par : a0 = 1, a1 = −1 et an+2 +an+1 −an = 0, ∀n ∈ N.
Montrer que an est un entier relatif (an ∈ Z) pour tout n ∈ N.

Solution
Appliquons la méthode 2 ci-dessus afin de prouver la propriété P(n) : an ∈ Z.
i) Comme a0 = 1 et a1 = −1 par hypothèse, alors P(0) et P(1) sont vraies.
ii) Pour n ≥ 1, on suppose que P(0), P(1), ..., P(n) sont vraies et montrons
que P(n + 1) est aussi vraie.
On a : an+1 = −an + an−1 avec an ∈ Z et an−1 ∈ Z car P(n − 1) et P(n) sont
vraies. Ainsi, −an + an−1 = an+1 ∈ Z et par suite P(n + 1) est vraie.
En conclusion, pour tout n ∈ N, P(n) est vraie.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 7/ 65


Chapitre 1 : Les Structures Algébriques
1.3 Application

Définition (Application)
Soit E et F deux ensembles. Une application f (.) de E dans F est un sous-ensemble G
du produit cartésien E × F , appelé graphe de f (.), tel que tout x ∈ E a une image et
une seule f (x ) ∈ F . On notera f (.) : E → F .

E est le domaine de f (.). L’image par f (.) d’un sous-ensemble A de E se note f (A) ⊂ F .
L’image réciproque d’un sous-ensemble B ⊂ F par f (.) se note f −1 (B) ⊂ E .

Exemple
Soit E = {1, 2, 3} et F = {a, b, c}.
• Les sous-ensembles G1 = {(1, a), (2, b), (3, c)} et G2 = {(1, a), (2, a), (3, a)} du produit
cartésien E ×F définissent chacun une application de E dans F (notées resp. f1 (.) et f2 (.)).
• Par contre, G3 = {(1, a), (3, c)} ⊂ E × F ne définit pas une application de E car 2 ∈ E
n’apparait comme première composante pour aucun élément de G3 .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 8/ 65


Chapitre 1 : Les Structures Algébriques
1.3 Application

Définition (Application)
Soit E et F deux ensembles. Une application f (.) de E dans F est un sous-ensemble G
du produit cartésien E × F , appelé graphe de f (.), tel que tout x ∈ E a une image et
une seule f (x ) ∈ F . On notera f (.) : E → F .

E est le domaine de f (.). L’image par f (.) d’un sous-ensemble A de E se note f (A) ⊂ F .
L’image réciproque d’un sous-ensemble B ⊂ F par f (.) se note f −1 (B) ⊂ E .

Exemple
Soit E = {1, 2, 3} et F = {a, b, c}.
• Les sous-ensembles G1 = {(1, a), (2, b), (3, c)} et G2 = {(1, a), (2, a), (3, a)} du produit
cartésien E ×F définissent chacun une application de E dans F (notées resp. f1 (.) et f2 (.)).
• Par contre, G3 = {(1, a), (3, c)} ⊂ E × F ne définit pas une application de E car 2 ∈ E
n’apparait comme première composante pour aucun élément de G3 .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 8/ 65


Chapitre 1 : Les Structures Algébriques
1.3 Application

Définition (Application)
Soit E et F deux ensembles. Une application f (.) de E dans F est un sous-ensemble G
du produit cartésien E × F , appelé graphe de f (.), tel que tout x ∈ E a une image et
une seule f (x ) ∈ F . On notera f (.) : E → F .

E est le domaine de f (.). L’image par f (.) d’un sous-ensemble A de E se note f (A) ⊂ F .
L’image réciproque d’un sous-ensemble B ⊂ F par f (.) se note f −1 (B) ⊂ E .

Exemple
Soit E = {1, 2, 3} et F = {a, b, c}.
• Les sous-ensembles G1 = {(1, a), (2, b), (3, c)} et G2 = {(1, a), (2, a), (3, a)} du produit
cartésien E ×F définissent chacun une application de E dans F (notées resp. f1 (.) et f2 (.)).
• Par contre, G3 = {(1, a), (3, c)} ⊂ E × F ne définit pas une application de E car 2 ∈ E
n’apparait comme première composante pour aucun élément de G3 .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 8/ 65


Chapitre 1 : Les Structures Algébriques
1.3 Application

Définition
Soient les deux applications f (.) : E → F et g(.) : F → H. L’application gof (.) : E → H,
dite application composée, est définie par : gof (x ) = g(f (x )), ∀ x ∈ E .

Proposition
La composition d’applications est une loi associative : (gof )oh = go(foh).

Définition
Soit f (.) : E → F et A ⊂ E . On appelle restriction de f (.) à A l’application de A dans
F , notée f|A (.), et est définie par : f|A (x ) = f (x ), ∀ x ∈ A.

Définition
Soit A ⊂ E et f (.) : A → F . On appelle prolongement de f (.) à E toute application
g(.) : E → F telle que g(x ) = f (x ), ∀ x ∈ A.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 9/ 65


Chapitre 1 : Les Structures Algébriques
1.3 Application

Définition
Soient les deux applications f (.) : E → F et g(.) : F → H. L’application gof (.) : E → H,
dite application composée, est définie par : gof (x ) = g(f (x )), ∀ x ∈ E .

Proposition
La composition d’applications est une loi associative : (gof )oh = go(foh).

Définition
Soit f (.) : E → F et A ⊂ E . On appelle restriction de f (.) à A l’application de A dans
F , notée f|A (.), et est définie par : f|A (x ) = f (x ), ∀ x ∈ A.

Définition
Soit A ⊂ E et f (.) : A → F . On appelle prolongement de f (.) à E toute application
g(.) : E → F telle que g(x ) = f (x ), ∀ x ∈ A.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 9/ 65


Chapitre 1 : Les Structures Algébriques
1.3 Application

Définition
Soient les deux applications f (.) : E → F et g(.) : F → H. L’application gof (.) : E → H,
dite application composée, est définie par : gof (x ) = g(f (x )), ∀ x ∈ E .

Proposition
La composition d’applications est une loi associative : (gof )oh = go(foh).

Définition
Soit f (.) : E → F et A ⊂ E . On appelle restriction de f (.) à A l’application de A dans
F , notée f|A (.), et est définie par : f|A (x ) = f (x ), ∀ x ∈ A.

Définition
Soit A ⊂ E et f (.) : A → F . On appelle prolongement de f (.) à E toute application
g(.) : E → F telle que g(x ) = f (x ), ∀ x ∈ A.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 9/ 65


Chapitre 1 : Les Structures Algébriques
1.3 Application

Définition
Soient les deux applications f (.) : E → F et g(.) : F → H. L’application gof (.) : E → H,
dite application composée, est définie par : gof (x ) = g(f (x )), ∀ x ∈ E .

Proposition
La composition d’applications est une loi associative : (gof )oh = go(foh).

Définition
Soit f (.) : E → F et A ⊂ E . On appelle restriction de f (.) à A l’application de A dans
F , notée f|A (.), et est définie par : f|A (x ) = f (x ), ∀ x ∈ A.

Définition
Soit A ⊂ E et f (.) : A → F . On appelle prolongement de f (.) à E toute application
g(.) : E → F telle que g(x ) = f (x ), ∀ x ∈ A.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 9/ 65


Chapitre 1 : Les Structures Algébriques
1.3 Application

Définition
Soit f (.) : E → F une application. On dit que :
• f (.) est surjective si pour tout y ∈ F , il existe x ∈ E tel que f (x ) = y .
• f (.) est injective si : f (x1 ) = f (x2 ) ⇒ x1 = x2 , ∀ x1 , x2 ∈ E .
• Si f (.) est à la fois injective et surjective, alors f (.) est dite bijection.

Proposition
Soient f (.) : E → F et g(.) : F → G.
i) Si f (.) et g(.) sont injectives, alors gof (.) est injective ;
ii) Si f (.) et g(.) sont surjectives, alors gof (.) est surjective.

Définition
L’application identique 1E (.) : E → E est définie par : 1E (x ) = x , ∀ x ∈ E . Si f (.) est
surjective de E sur F , et si g(.) est surjective de F sur E , alors g(.) est par définition une
application inverse de f (.) si gof (.) = 1E (.) et fog(.) = 1F (.).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 10/ 65


Chapitre 1 : Les Structures Algébriques
1.3 Application

Définition
Soit f (.) : E → F une application. On dit que :
• f (.) est surjective si pour tout y ∈ F , il existe x ∈ E tel que f (x ) = y .
• f (.) est injective si : f (x1 ) = f (x2 ) ⇒ x1 = x2 , ∀ x1 , x2 ∈ E .
• Si f (.) est à la fois injective et surjective, alors f (.) est dite bijection.

Proposition
Soient f (.) : E → F et g(.) : F → G.
i) Si f (.) et g(.) sont injectives, alors gof (.) est injective ;
ii) Si f (.) et g(.) sont surjectives, alors gof (.) est surjective.

Définition
L’application identique 1E (.) : E → E est définie par : 1E (x ) = x , ∀ x ∈ E . Si f (.) est
surjective de E sur F , et si g(.) est surjective de F sur E , alors g(.) est par définition une
application inverse de f (.) si gof (.) = 1E (.) et fog(.) = 1F (.).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 10/ 65


Chapitre 1 : Les Structures Algébriques
1.3 Application

Définition
Soit f (.) : E → F une application. On dit que :
• f (.) est surjective si pour tout y ∈ F , il existe x ∈ E tel que f (x ) = y .
• f (.) est injective si : f (x1 ) = f (x2 ) ⇒ x1 = x2 , ∀ x1 , x2 ∈ E .
• Si f (.) est à la fois injective et surjective, alors f (.) est dite bijection.

Proposition
Soient f (.) : E → F et g(.) : F → G.
i) Si f (.) et g(.) sont injectives, alors gof (.) est injective ;
ii) Si f (.) et g(.) sont surjectives, alors gof (.) est surjective.

Définition
L’application identique 1E (.) : E → E est définie par : 1E (x ) = x , ∀ x ∈ E . Si f (.) est
surjective de E sur F , et si g(.) est surjective de F sur E , alors g(.) est par définition une
application inverse de f (.) si gof (.) = 1E (.) et fog(.) = 1F (.).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 10/ 65


Chapitre 1 : Les Structures Algébriques
1.4 Lois de composition interne

Définition (lci)
Une loi de composition interne sur un ensemble E , notée ∗ : E × E → E , est une
application qui à tout (x , y ) ∈ E × E associe un unique élément z ∈ E , noté x ∗ y .

On écrit x + y , et on dit que la lci est additive et dans ce cas z est appelé somme de x
et y . On écrit aussi x .y (ou xy ), et on dit que la lci est multiplicative et dans ce cas z
est appelé produit de x et y . On note (E , ∗) un ensemble E muni de la lci ∗.

Exemple
• La somme sur N, N∗ , Z, Q, R (mais pas sur Z∗ , Q∗ , R∗ ).
• Le produit sur N, N∗ , Z, Q, R, C.
• La différence sur R ou C (mais pas sur N).
• La composé d’applications sur F F (ensemble des applications de F dans F ).
• La loi ⊕ définie sur R2 par (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 + x2 , y1 + y2 ).
• La loi ⊗ définie sur R2 par (x1 , y1 ) ⊗ (x2 , y2 ) = (x1 x2 − y1 y2 , x1 y2 + x2 y1 ).
• Les lois ∪, ∩ et ∆ (différence symétrique) définies sur P(E ).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 11/ 65


Chapitre 1 : Les Structures Algébriques
1.4 Lois de composition interne

Définition (lci)
Une loi de composition interne sur un ensemble E , notée ∗ : E × E → E , est une
application qui à tout (x , y ) ∈ E × E associe un unique élément z ∈ E , noté x ∗ y .

On écrit x + y , et on dit que la lci est additive et dans ce cas z est appelé somme de x
et y . On écrit aussi x .y (ou xy ), et on dit que la lci est multiplicative et dans ce cas z
est appelé produit de x et y . On note (E , ∗) un ensemble E muni de la lci ∗.

Exemple
• La somme sur N, N∗ , Z, Q, R (mais pas sur Z∗ , Q∗ , R∗ ).
• Le produit sur N, N∗ , Z, Q, R, C.
• La différence sur R ou C (mais pas sur N).
• La composé d’applications sur F F (ensemble des applications de F dans F ).
• La loi ⊕ définie sur R2 par (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 + x2 , y1 + y2 ).
• La loi ⊗ définie sur R2 par (x1 , y1 ) ⊗ (x2 , y2 ) = (x1 x2 − y1 y2 , x1 y2 + x2 y1 ).
• Les lois ∪, ∩ et ∆ (différence symétrique) définies sur P(E ).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 11/ 65


Chapitre 1 : Les Structures Algébriques
1.4 Lois de composition interne

Définition
Soit ∗ une loi de composition interne sur E . On dit que :
∗ est associative si : (x ∗ y ) ∗ z = x ∗ (y ∗ z), ∀ x , y , z ∈ E .
∗ est commutative si : x ∗ y = y ∗ x , ∀ x , y ∈ E .
Si ∗ est associative, e ∈ E est un neutre pour ∗ si : x ∗ e = e ∗ x = x , ∀ x ∈ E .

Proposition
Si ∗ est une lci associative sur E et admettant un neutre, alors ce neutre est unique.
Preuve. On suppose e1 et e2 neutres pour ∗, et on considère e1 ∗ e2 ...

Exemple
• La différence n’est ni associative ni commutative sur R.
• La loi o (composition d’applications de E → E ) est associative, mais n’est pas com-
mutative (sauf si F est un singleton). Elle admet IE (.) comme neutre.
• Les lois ∪, ∩ et ∆ sur P(E ) sont associatives et commutatives. Elles admettent pour
neutres respectifs ∅, F et ∅.
• ⊕ et ⊗ sur R2 sont associatives et commutatives sur R2 .
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 12/ 65
Chapitre 1 : Les Structures Algébriques
1.4 Lois de composition interne

Définition
Soit ∗ une loi de composition interne sur E . On dit que :
∗ est associative si : (x ∗ y ) ∗ z = x ∗ (y ∗ z), ∀ x , y , z ∈ E .
∗ est commutative si : x ∗ y = y ∗ x , ∀ x , y ∈ E .
Si ∗ est associative, e ∈ E est un neutre pour ∗ si : x ∗ e = e ∗ x = x , ∀ x ∈ E .

Proposition
Si ∗ est une lci associative sur E et admettant un neutre, alors ce neutre est unique.
Preuve. On suppose e1 et e2 neutres pour ∗, et on considère e1 ∗ e2 ...

Exemple
• La différence n’est ni associative ni commutative sur R.
• La loi o (composition d’applications de E → E ) est associative, mais n’est pas com-
mutative (sauf si F est un singleton). Elle admet IE (.) comme neutre.
• Les lois ∪, ∩ et ∆ sur P(E ) sont associatives et commutatives. Elles admettent pour
neutres respectifs ∅, F et ∅.
• ⊕ et ⊗ sur R2 sont associatives et commutatives sur R2 .
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 12/ 65
Chapitre 1 : Les Structures Algébriques
1.4 Lois de composition interne

Définition
Soit ∗ une loi de composition interne sur E . On dit que :
∗ est associative si : (x ∗ y ) ∗ z = x ∗ (y ∗ z), ∀ x , y , z ∈ E .
∗ est commutative si : x ∗ y = y ∗ x , ∀ x , y ∈ E .
Si ∗ est associative, e ∈ E est un neutre pour ∗ si : x ∗ e = e ∗ x = x , ∀ x ∈ E .

Proposition
Si ∗ est une lci associative sur E et admettant un neutre, alors ce neutre est unique.
Preuve. On suppose e1 et e2 neutres pour ∗, et on considère e1 ∗ e2 ...

Exemple
• La différence n’est ni associative ni commutative sur R.
• La loi o (composition d’applications de E → E ) est associative, mais n’est pas com-
mutative (sauf si F est un singleton). Elle admet IE (.) comme neutre.
• Les lois ∪, ∩ et ∆ sur P(E ) sont associatives et commutatives. Elles admettent pour
neutres respectifs ∅, F et ∅.
• ⊕ et ⊗ sur R2 sont associatives et commutatives sur R2 .
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 12/ 65
Chapitre 1 : Les Structures Algébriques
1.4 Lois de composition interne

Exercice
Montrer que ⊕ définie sur R2 par : (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 + x2 , y1 + y2 ) admet un neutre.

Définition
Soit ∗ une lci associative sur E , admettant un neutre e, et soit x ∈ E . On dit que x
admet un symétrique pour ∗ s’il existe y ∈ E tel que : x ∗ y = y ∗ x = e.

Proposition
Dans la définition précédente, si y existe, il est unique. On peut alors parler du symétrique
de x pour ∗. On le note généralement x −1 .

Démonstration.
Partir de y1 ∗ (x ∗ y2 ) = (y1 ∗ x ) ∗ y2 ....

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 13/ 65


Chapitre 1 : Les Structures Algébriques
1.4 Lois de composition interne

Exercice
Montrer que ⊕ définie sur R2 par : (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 + x2 , y1 + y2 ) admet un neutre.

Définition
Soit ∗ une lci associative sur E , admettant un neutre e, et soit x ∈ E . On dit que x
admet un symétrique pour ∗ s’il existe y ∈ E tel que : x ∗ y = y ∗ x = e.

Proposition
Dans la définition précédente, si y existe, il est unique. On peut alors parler du symétrique
de x pour ∗. On le note généralement x −1 .

Démonstration.
Partir de y1 ∗ (x ∗ y2 ) = (y1 ∗ x ) ∗ y2 ....

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 13/ 65


Chapitre 1 : Les Structures Algébriques
1.4 Lois de composition interne

Exercice
Montrer que ⊕ définie sur R2 par : (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 + x2 , y1 + y2 ) admet un neutre.

Définition
Soit ∗ une lci associative sur E , admettant un neutre e, et soit x ∈ E . On dit que x
admet un symétrique pour ∗ s’il existe y ∈ E tel que : x ∗ y = y ∗ x = e.

Proposition
Dans la définition précédente, si y existe, il est unique. On peut alors parler du symétrique
de x pour ∗. On le note généralement x −1 .

Démonstration.
Partir de y1 ∗ (x ∗ y2 ) = (y1 ∗ x ) ∗ y2 ....

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 13/ 65


Chapitre 1 : Les Structures Algébriques
1.4 Lois de composition interne

Exercice
Montrer que ⊕ définie sur R2 par : (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 + x2 , y1 + y2 ) admet un neutre.

Définition
Soit ∗ une lci associative sur E , admettant un neutre e, et soit x ∈ E . On dit que x
admet un symétrique pour ∗ s’il existe y ∈ E tel que : x ∗ y = y ∗ x = e.

Proposition
Dans la définition précédente, si y existe, il est unique. On peut alors parler du symétrique
de x pour ∗. On le note généralement x −1 .

Démonstration.
Partir de y1 ∗ (x ∗ y2 ) = (y1 ∗ x ) ∗ y2 ....

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 13/ 65


Chapitre 1 : Les Structures Algébriques
1.5 Groupe

Définition (Groupe)
Le couple (G, ∗) est dit groupe si G est un ensemble non vide muni d’une loi ∗
vérifiant :
i) ∗ est une lci : ∀ x , y ∈ G : x ∗ y ∈ G
ii) ∗ est associativité : ∀ x , y , z ∈ G : x ∗ (y ∗ z) = (x ∗ y ) ∗ z
iii) ∗ admet un neutre : ∃ e ∈ G tq ∀ x ∈ G : x ∗ e = e ∗ x = x
iv) tout x ∈ G admet un symétrique x −1 ∈ G t.q x ∗ x −1 = x −1 ∗ x = e

Notation. ∀ x ∈ G, on note x 2 = x ∗ x et plus généralement, x n = x ∗ x n−1 .


Proposition
Soit (G, ∗) un groupe, et soit x , y , z ∈ G. On a :
i) Si x ∗ y = x ∗ z, alors y = z ii) Si x ∗ z = y ∗ z, alors x = y .

Définition
Un groupe (G, ∗) est commutatif (abélien) si : x ∗ y = y ∗ x , ∀ x , y ∈ G.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 14/ 65
Chapitre 1 : Les Structures Algébriques
1.5 Groupe

Définition (Groupe)
Le couple (G, ∗) est dit groupe si G est un ensemble non vide muni d’une loi ∗
vérifiant :
i) ∗ est une lci : ∀ x , y ∈ G : x ∗ y ∈ G
ii) ∗ est associativité : ∀ x , y , z ∈ G : x ∗ (y ∗ z) = (x ∗ y ) ∗ z
iii) ∗ admet un neutre : ∃ e ∈ G tq ∀ x ∈ G : x ∗ e = e ∗ x = x
iv) tout x ∈ G admet un symétrique x −1 ∈ G t.q x ∗ x −1 = x −1 ∗ x = e

Notation. ∀ x ∈ G, on note x 2 = x ∗ x et plus généralement, x n = x ∗ x n−1 .


Proposition
Soit (G, ∗) un groupe, et soit x , y , z ∈ G. On a :
i) Si x ∗ y = x ∗ z, alors y = z ii) Si x ∗ z = y ∗ z, alors x = y .

Définition
Un groupe (G, ∗) est commutatif (abélien) si : x ∗ y = y ∗ x , ∀ x , y ∈ G.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 14/ 65
Chapitre 1 : Les Structures Algébriques
1.5 Groupe

Définition (Groupe)
Le couple (G, ∗) est dit groupe si G est un ensemble non vide muni d’une loi ∗
vérifiant :
i) ∗ est une lci : ∀ x , y ∈ G : x ∗ y ∈ G
ii) ∗ est associativité : ∀ x , y , z ∈ G : x ∗ (y ∗ z) = (x ∗ y ) ∗ z
iii) ∗ admet un neutre : ∃ e ∈ G tq ∀ x ∈ G : x ∗ e = e ∗ x = x
iv) tout x ∈ G admet un symétrique x −1 ∈ G t.q x ∗ x −1 = x −1 ∗ x = e

Notation. ∀ x ∈ G, on note x 2 = x ∗ x et plus généralement, x n = x ∗ x n−1 .


Proposition
Soit (G, ∗) un groupe, et soit x , y , z ∈ G. On a :
i) Si x ∗ y = x ∗ z, alors y = z ii) Si x ∗ z = y ∗ z, alors x = y .

Définition
Un groupe (G, ∗) est commutatif (abélien) si : x ∗ y = y ∗ x , ∀ x , y ∈ G.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 14/ 65
Chapitre 1 : Les Structures Algébriques
1.5 Groupe

Exemple
• Les ensembles Z, Q, R, C munis de l’addition sont des groupes commutatifs.
L’élément neutre est 0 et le symétrique de x est −x .
• De même, les ensembles Q\{0}, R\{0}, C\{0} munis du produit sont des
groupes commutatifs. L’élément neutre est 1 et le symétrique de x est 1/x .
• Soit n un entier ≥ 2. L’ensemble des matrices carrées inversibles (les matrices
de déterminant non nul) de Mn (R) (resp. Mn (C)) est un groupe non abélien.
L’élément neutre est la matrice identité In . On appelle ce groupe le groupe linéaire
GLn (R) (resp. GLn (C)).

Exemple
Pour diverses raisons (à déterminer), les couples suivants ne sont pas des groupes :
(N, +), (R, .), (E E , ◦), (P(E ), ∪), (P(E ), ∩).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 15/ 65


Chapitre 1 : Les Structures Algébriques
1.5 Groupe

Exemple
• Les ensembles Z, Q, R, C munis de l’addition sont des groupes commutatifs.
L’élément neutre est 0 et le symétrique de x est −x .
• De même, les ensembles Q\{0}, R\{0}, C\{0} munis du produit sont des
groupes commutatifs. L’élément neutre est 1 et le symétrique de x est 1/x .
• Soit n un entier ≥ 2. L’ensemble des matrices carrées inversibles (les matrices
de déterminant non nul) de Mn (R) (resp. Mn (C)) est un groupe non abélien.
L’élément neutre est la matrice identité In . On appelle ce groupe le groupe linéaire
GLn (R) (resp. GLn (C)).

Exemple
Pour diverses raisons (à déterminer), les couples suivants ne sont pas des groupes :
(N, +), (R, .), (E E , ◦), (P(E ), ∪), (P(E ), ∩).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 15/ 65


Chapitre 1 : Les Structures Algébriques
1.5.1 Sous-Groupe

Définition (Sous-groupe)
Soit (G, ∗) un groupe et H ⊂ G. Le couple (H, ∗) est dit sous-groupe de (G, ∗) si :
i) x ∗ y ∈ H, pour x , y ∈ H
ii) e ∈ H
iii) x −1 ∈ H, ∀ x ∈ H.

Exemple
L’ensemble des matrices inversibles de Mn (R) et de déterminant égal à 1 est un sous-
groupe du groupe GLn (R), noté SLn (R).

Exercice
Soient H1 et H2 deux sous-groupes de (G, ∗). Montrer que H1 ∩ H2 est également un
sous-groupe de (G, ∗).

Définition
Soit (G, ∗) un groupe. Un sous-groupe H de G est dit invariant (ou normal, ou distingue)
si, ∀ h ∈ H et ∀ x ∈ G, on a : x ∗ h ∗ x −1 ∈ H.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 16/ 65
Chapitre 1 : Les Structures Algébriques
1.5.1 Sous-Groupe

Définition (Sous-groupe)
Soit (G, ∗) un groupe et H ⊂ G. Le couple (H, ∗) est dit sous-groupe de (G, ∗) si :
i) x ∗ y ∈ H, pour x , y ∈ H
ii) e ∈ H
iii) x −1 ∈ H, ∀ x ∈ H.

Exemple
L’ensemble des matrices inversibles de Mn (R) et de déterminant égal à 1 est un sous-
groupe du groupe GLn (R), noté SLn (R).

Exercice
Soient H1 et H2 deux sous-groupes de (G, ∗). Montrer que H1 ∩ H2 est également un
sous-groupe de (G, ∗).

Définition
Soit (G, ∗) un groupe. Un sous-groupe H de G est dit invariant (ou normal, ou distingue)
si, ∀ h ∈ H et ∀ x ∈ G, on a : x ∗ h ∗ x −1 ∈ H.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 16/ 65
Chapitre 1 : Les Structures Algébriques
1.5.1 Sous-Groupe

Définition (Sous-groupe)
Soit (G, ∗) un groupe et H ⊂ G. Le couple (H, ∗) est dit sous-groupe de (G, ∗) si :
i) x ∗ y ∈ H, pour x , y ∈ H
ii) e ∈ H
iii) x −1 ∈ H, ∀ x ∈ H.

Exemple
L’ensemble des matrices inversibles de Mn (R) et de déterminant égal à 1 est un sous-
groupe du groupe GLn (R), noté SLn (R).

Exercice
Soient H1 et H2 deux sous-groupes de (G, ∗). Montrer que H1 ∩ H2 est également un
sous-groupe de (G, ∗).

Définition
Soit (G, ∗) un groupe. Un sous-groupe H de G est dit invariant (ou normal, ou distingue)
si, ∀ h ∈ H et ∀ x ∈ G, on a : x ∗ h ∗ x −1 ∈ H.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 16/ 65
Chapitre 1 : Les Structures Algébriques
1.5.1 Sous-Groupe

Définition (Sous-groupe)
Soit (G, ∗) un groupe et H ⊂ G. Le couple (H, ∗) est dit sous-groupe de (G, ∗) si :
i) x ∗ y ∈ H, pour x , y ∈ H
ii) e ∈ H
iii) x −1 ∈ H, ∀ x ∈ H.

Exemple
L’ensemble des matrices inversibles de Mn (R) et de déterminant égal à 1 est un sous-
groupe du groupe GLn (R), noté SLn (R).

Exercice
Soient H1 et H2 deux sous-groupes de (G, ∗). Montrer que H1 ∩ H2 est également un
sous-groupe de (G, ∗).

Définition
Soit (G, ∗) un groupe. Un sous-groupe H de G est dit invariant (ou normal, ou distingue)
si, ∀ h ∈ H et ∀ x ∈ G, on a : x ∗ h ∗ x −1 ∈ H.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 16/ 65
Chapitre 1 : Les Structures Algébriques
1.5.2 Homomorphisme de groupes

Définition (homomorphisme)
Soient (G, ∗) et (H, T ) deux groupes, et f (.) : G → H. L’application f (.) est dite
homomorphisme (ou morphisme) de groupes si : f (x ∗ y ) = f (x )Tf (y ), ∀ x , y ∈ G.

Remarque
Si f (.) est bijective, on parle d’isomorphisme. Si G = H et ∗ = T , on dit que f (.) est
un endomorphisme. Si f (.) est un endomorphisme bijectif, on parle d’automorphisme.
Soient f (.) : G1 → G2 et g(.) : G2 → G3 deux homomorphismes de groupes, alors la
composée fog(.) est un homomorphisme de G1 dans G3 .

Exemple
(i) x 7→ 2x réalise un isomorphisme de (R, +) sur (R∗+ , .) ; (ii) x 7→ 2x réalise un auto-
morphisme de (R, +). (iii) x 7→ 3 ln x réalise un isomorphisme de (R∗+ , .) sur (R, +). (iv)
z 7→ |z| réalise un morphisme de (C∗ , .) dans (R∗ , +). (v) Si G est un groupe abélien,
x 7→ x 2 et x 7→ x −1 réalisent des endomorphismes de G.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 17/ 65


Chapitre 1 : Les Structures Algébriques
1.5.2 Homomorphisme de groupes

Définition (homomorphisme)
Soient (G, ∗) et (H, T ) deux groupes, et f (.) : G → H. L’application f (.) est dite
homomorphisme (ou morphisme) de groupes si : f (x ∗ y ) = f (x )Tf (y ), ∀ x , y ∈ G.

Remarque
Si f (.) est bijective, on parle d’isomorphisme. Si G = H et ∗ = T , on dit que f (.) est
un endomorphisme. Si f (.) est un endomorphisme bijectif, on parle d’automorphisme.
Soient f (.) : G1 → G2 et g(.) : G2 → G3 deux homomorphismes de groupes, alors la
composée fog(.) est un homomorphisme de G1 dans G3 .

Exemple
(i) x 7→ 2x réalise un isomorphisme de (R, +) sur (R∗+ , .) ; (ii) x 7→ 2x réalise un auto-
morphisme de (R, +). (iii) x 7→ 3 ln x réalise un isomorphisme de (R∗+ , .) sur (R, +). (iv)
z 7→ |z| réalise un morphisme de (C∗ , .) dans (R∗ , +). (v) Si G est un groupe abélien,
x 7→ x 2 et x 7→ x −1 réalisent des endomorphismes de G.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 17/ 65


Chapitre 1 : Les Structures Algébriques
1.5.2 Homomorphisme de groupes

Définition (homomorphisme)
Soient (G, ∗) et (H, T ) deux groupes, et f (.) : G → H. L’application f (.) est dite
homomorphisme (ou morphisme) de groupes si : f (x ∗ y ) = f (x )Tf (y ), ∀ x , y ∈ G.

Remarque
Si f (.) est bijective, on parle d’isomorphisme. Si G = H et ∗ = T , on dit que f (.) est
un endomorphisme. Si f (.) est un endomorphisme bijectif, on parle d’automorphisme.
Soient f (.) : G1 → G2 et g(.) : G2 → G3 deux homomorphismes de groupes, alors la
composée fog(.) est un homomorphisme de G1 dans G3 .

Exemple
(i) x 7→ 2x réalise un isomorphisme de (R, +) sur (R∗+ , .) ; (ii) x 7→ 2x réalise un auto-
morphisme de (R, +). (iii) x 7→ 3 ln x réalise un isomorphisme de (R∗+ , .) sur (R, +). (iv)
z 7→ |z| réalise un morphisme de (C∗ , .) dans (R∗ , +). (v) Si G est un groupe abélien,
x 7→ x 2 et x 7→ x −1 réalisent des endomorphismes de G.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 17/ 65


Chapitre 1 : Les Structures Algébriques
1.5.3 Noyau

Définition
Soient G1 et G2 deux groupes, et f (.) : G1 → G2 un isomorphisme. Il existe alors une
bijection réciproque f −1 (.) : G2 → G1 , qui est aussi un isomorphisme de G2 sur G1 . On
dit que les deux groupes G1 et G2 sont isomorphes.

Proposition
Soit f (.) : G1 → G2 un homomorphisme de groupes. Pour tout x ∈ G1 , on a :
i) f (e1 ) = e2
ii) (f (x ))−1 = f (x −1 )
iii) (f (x ))n = f (x n )

Définition (Noyau)
Soit f (.) : G1 → G2 un homomorphisme de groupes. Le noyau de f (.) est l’ensemble
défini par : Ker (f ) = {x ∈ G1 | f (x ) = e2 }.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 18/ 65


Chapitre 1 : Les Structures Algébriques
1.5.3 Noyau

Définition
Soient G1 et G2 deux groupes, et f (.) : G1 → G2 un isomorphisme. Il existe alors une
bijection réciproque f −1 (.) : G2 → G1 , qui est aussi un isomorphisme de G2 sur G1 . On
dit que les deux groupes G1 et G2 sont isomorphes.

Proposition
Soit f (.) : G1 → G2 un homomorphisme de groupes. Pour tout x ∈ G1 , on a :
i) f (e1 ) = e2
ii) (f (x ))−1 = f (x −1 )
iii) (f (x ))n = f (x n )

Définition (Noyau)
Soit f (.) : G1 → G2 un homomorphisme de groupes. Le noyau de f (.) est l’ensemble
défini par : Ker (f ) = {x ∈ G1 | f (x ) = e2 }.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 18/ 65


Chapitre 1 : Les Structures Algébriques
1.5.3 Noyau

Définition
Soient G1 et G2 deux groupes, et f (.) : G1 → G2 un isomorphisme. Il existe alors une
bijection réciproque f −1 (.) : G2 → G1 , qui est aussi un isomorphisme de G2 sur G1 . On
dit que les deux groupes G1 et G2 sont isomorphes.

Proposition
Soit f (.) : G1 → G2 un homomorphisme de groupes. Pour tout x ∈ G1 , on a :
i) f (e1 ) = e2
ii) (f (x ))−1 = f (x −1 )
iii) (f (x ))n = f (x n )

Définition (Noyau)
Soit f (.) : G1 → G2 un homomorphisme de groupes. Le noyau de f (.) est l’ensemble
défini par : Ker (f ) = {x ∈ G1 | f (x ) = e2 }.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 18/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Proposition
Soit f (.) : G1 → G2 un homomorphisme de groupes. On a :
i) Ker (f ) est un sous-groupe invariant
ii) f (.) est injectif si et seulement si Ker (f ) = {e1 }
iii) Si H1 est un sous-groupe de G1 , alors f (H1 ) est un sous-groupe de G2
iv) Si f (.) est surjective et H1 invariant, alors f (H1 ) est invariant dans G2
v) Si H2 est un sous-groupe de G2 , alors f −1 (H2 ) est un sous-groupe de G1
vi) Si H2 est invariant dans G2 , alors f −1 (H2 ) est invariant dans G1

Définition
Le triplet (A, +, ∗) est un anneau si A est un ensemble non vide muni de deux lois de
composition internes notées + et ∗, et vérifiant les propriétés suivantes :
i) (A, +) est un groupe abélien. Le neutre de la loi + est noté 0
ii) La loi ∗ est associativité : x ∗ (y ∗ z) = (x ∗ y ) ∗ z, ∀ x , y , z ∈ A
iii) ∗ est distributive par rapport à la loi + : x ∗ (y + z) = (x ∗ y ) + (x ∗ z), ∀ x , y , z ∈ A

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 19/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Proposition
Soit f (.) : G1 → G2 un homomorphisme de groupes. On a :
i) Ker (f ) est un sous-groupe invariant
ii) f (.) est injectif si et seulement si Ker (f ) = {e1 }
iii) Si H1 est un sous-groupe de G1 , alors f (H1 ) est un sous-groupe de G2
iv) Si f (.) est surjective et H1 invariant, alors f (H1 ) est invariant dans G2
v) Si H2 est un sous-groupe de G2 , alors f −1 (H2 ) est un sous-groupe de G1
vi) Si H2 est invariant dans G2 , alors f −1 (H2 ) est invariant dans G1

Définition
Le triplet (A, +, ∗) est un anneau si A est un ensemble non vide muni de deux lois de
composition internes notées + et ∗, et vérifiant les propriétés suivantes :
i) (A, +) est un groupe abélien. Le neutre de la loi + est noté 0
ii) La loi ∗ est associativité : x ∗ (y ∗ z) = (x ∗ y ) ∗ z, ∀ x , y , z ∈ A
iii) ∗ est distributive par rapport à la loi + : x ∗ (y + z) = (x ∗ y ) + (x ∗ z), ∀ x , y , z ∈ A

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 19/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Si de plus, il existe un élément neutre dans A pour la loi ∗ (noté 1 et appelé élément unité
de l’anneau) alors l’anneau A est dit unitaire.

Définition
Si l’élément x d’un anneau possède un inverse pour la 2ème loi de l’anneau, on dira que x
est inversible et on notera x −1 son inverse.

Proposition
L’ensemble des éléments inversibles d’un anneau possède une structure de groupe pour
la loi ∗ de l’anneau.

Proposition
Pour x , y ∈ A, on a :
i) 0 ∗ x = 0 ii) (−1) ∗ x = −x
iii) (−1) ∗ (−1) = 1 iv) (−x ) ∗ y = −(x ∗ y ).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 20/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Si de plus, il existe un élément neutre dans A pour la loi ∗ (noté 1 et appelé élément unité
de l’anneau) alors l’anneau A est dit unitaire.

Définition
Si l’élément x d’un anneau possède un inverse pour la 2ème loi de l’anneau, on dira que x
est inversible et on notera x −1 son inverse.

Proposition
L’ensemble des éléments inversibles d’un anneau possède une structure de groupe pour
la loi ∗ de l’anneau.

Proposition
Pour x , y ∈ A, on a :
i) 0 ∗ x = 0 ii) (−1) ∗ x = −x
iii) (−1) ∗ (−1) = 1 iv) (−x ) ∗ y = −(x ∗ y ).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 20/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Si de plus, il existe un élément neutre dans A pour la loi ∗ (noté 1 et appelé élément unité
de l’anneau) alors l’anneau A est dit unitaire.

Définition
Si l’élément x d’un anneau possède un inverse pour la 2ème loi de l’anneau, on dira que x
est inversible et on notera x −1 son inverse.

Proposition
L’ensemble des éléments inversibles d’un anneau possède une structure de groupe pour
la loi ∗ de l’anneau.

Proposition
Pour x , y ∈ A, on a :
i) 0 ∗ x = 0 ii) (−1) ∗ x = −x
iii) (−1) ∗ (−1) = 1 iv) (−x ) ∗ y = −(x ∗ y ).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 20/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Si de plus, il existe un élément neutre dans A pour la loi ∗ (noté 1 et appelé élément unité
de l’anneau) alors l’anneau A est dit unitaire.

Définition
Si l’élément x d’un anneau possède un inverse pour la 2ème loi de l’anneau, on dira que x
est inversible et on notera x −1 son inverse.

Proposition
L’ensemble des éléments inversibles d’un anneau possède une structure de groupe pour
la loi ∗ de l’anneau.

Proposition
Pour x , y ∈ A, on a :
i) 0 ∗ x = 0 ii) (−1) ∗ x = −x
iii) (−1) ∗ (−1) = 1 iv) (−x ) ∗ y = −(x ∗ y ).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 20/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Définition
Un anneau (A, +, ∗) est dit intègre si 1 ̸= 0 et si pour tout x , y ∈ A : x ∗y = 0 =⇒ x = 0
ou y = 0.

Si A n’est pas intègre, alors il existe des éléments non nuls x et y tels que x ∗ y = 0. Par
définition x et y sont des diviseurs de 0.

Définition
Un anneau (A, +, ∗) est dit commutatif si la loi ∗ est commutative.

Formules algébriques pour un anneau commutatif


x m+n = x m ∗ x n (x m )n = x mn (x ∗ y )n = x n ∗ y n
n
n!
X
Formule du binôme de Newton : (x + y )n = (x n−i ∗ yi)
i!(n − i)!
i=0

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 21/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Définition
Un anneau (A, +, ∗) est dit intègre si 1 ̸= 0 et si pour tout x , y ∈ A : x ∗y = 0 =⇒ x = 0
ou y = 0.

Si A n’est pas intègre, alors il existe des éléments non nuls x et y tels que x ∗ y = 0. Par
définition x et y sont des diviseurs de 0.

Définition
Un anneau (A, +, ∗) est dit commutatif si la loi ∗ est commutative.

Formules algébriques pour un anneau commutatif


x m+n = x m ∗ x n (x m )n = x mn (x ∗ y )n = x n ∗ y n
n
n!
X
Formule du binôme de Newton : (x + y )n = (x n−i ∗ yi)
i!(n − i)!
i=0

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 21/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Définition
Un anneau (A, +, ∗) est dit intègre si 1 ̸= 0 et si pour tout x , y ∈ A : x ∗y = 0 =⇒ x = 0
ou y = 0.

Si A n’est pas intègre, alors il existe des éléments non nuls x et y tels que x ∗ y = 0. Par
définition x et y sont des diviseurs de 0.

Définition
Un anneau (A, +, ∗) est dit commutatif si la loi ∗ est commutative.

Formules algébriques pour un anneau commutatif


x m+n = x m ∗ x n (x m )n = x mn (x ∗ y )n = x n ∗ y n
n
n!
X
Formule du binôme de Newton : (x + y )n = (x n−i ∗ yi)
i!(n − i)!
i=0

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 21/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Définition
Un anneau (A, +, ∗) est dit intègre si 1 ̸= 0 et si pour tout x , y ∈ A : x ∗y = 0 =⇒ x = 0
ou y = 0.

Si A n’est pas intègre, alors il existe des éléments non nuls x et y tels que x ∗ y = 0. Par
définition x et y sont des diviseurs de 0.

Définition
Un anneau (A, +, ∗) est dit commutatif si la loi ∗ est commutative.

Formules algébriques pour un anneau commutatif


x m+n = x m ∗ x n (x m )n = x mn (x ∗ y )n = x n ∗ y n
n
n!
X
Formule du binôme de Newton : (x + y )n = (x n−i ∗ yi)
i!(n − i)!
i=0

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 21/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Exemple
L’ensemble des matrices carrées Mn (R) munie des lois somme et produit de matrices est
un anneau non commutatif (pour A, B ∈ Mn (R), en général AB ̸= BA). Par ailleurs, la
1 −1
 
matrice M = a pour carré M 2 la matrice nulle !
1 −1

Définition (Sous-Anneau)
Une partie B de l’anneau de (A, +, ∗) est un sous-anneau de A si, muni des lois de A :
i) (B, +) est un sous-groupe de (A, +)
ii) pour tout couple x , y ∈ B, x ∗ y ∈ B (muni de +, et ∗, B est lui-même un anneau)

Exemple
(Z, +, ×), anneau des entiers relatifs, est un sous-anneau de l’anneau des nombres ration-
nels (Q, +, ×).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 22/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Exemple
L’ensemble des matrices carrées Mn (R) munie des lois somme et produit de matrices est
un anneau non commutatif (pour A, B ∈ Mn (R), en général AB ̸= BA). Par ailleurs, la
1 −1
 
matrice M = a pour carré M 2 la matrice nulle !
1 −1

Définition (Sous-Anneau)
Une partie B de l’anneau de (A, +, ∗) est un sous-anneau de A si, muni des lois de A :
i) (B, +) est un sous-groupe de (A, +)
ii) pour tout couple x , y ∈ B, x ∗ y ∈ B (muni de +, et ∗, B est lui-même un anneau)

Exemple
(Z, +, ×), anneau des entiers relatifs, est un sous-anneau de l’anneau des nombres ration-
nels (Q, +, ×).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 22/ 65


Chapitre 1 : Les Structures Algébriques
1.6 Anneau

Exemple
L’ensemble des matrices carrées Mn (R) munie des lois somme et produit de matrices est
un anneau non commutatif (pour A, B ∈ Mn (R), en général AB ̸= BA). Par ailleurs, la
1 −1
 
matrice M = a pour carré M 2 la matrice nulle !
1 −1

Définition (Sous-Anneau)
Une partie B de l’anneau de (A, +, ∗) est un sous-anneau de A si, muni des lois de A :
i) (B, +) est un sous-groupe de (A, +)
ii) pour tout couple x , y ∈ B, x ∗ y ∈ B (muni de +, et ∗, B est lui-même un anneau)

Exemple
(Z, +, ×), anneau des entiers relatifs, est un sous-anneau de l’anneau des nombres ration-
nels (Q, +, ×).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 22/ 65


Chapitre 1 : Les Structures Algébriques
1.7 Corps

Définition (Corps)
Un corps est un anneau unitaire dont tous les éléments non-nuls sont inversibles. Il est dit
commutatif si c’est un anneau commutatif, c-à-d si sa multiplication est commutative.

Définition (Corps)
Un corps est un ensemble K muni de deux opérations + et ·, vérifiant :
i) ∀ a, b ∈ K, a + b et a.b sont définis et uniques dans K
ii) Associativité : a + (b + c) = (a + b) + c et a.(b.c) = (a.b).c, ∀ a, b, c ∈ K
iii) Commutativité : a + b = b + a et a.b = b.a, ∀ a, b, c ∈ K
iv) Distributivité : a.(b + c) = (a.b) + (a.c) et (a + b).c = (a.c) + (b.c), ∀ a, b, c ∈ K
v) Éléments Neutres : l’ensemble K possède un élément neutre pour l’addition élément,
noté 0, et appelé élément nul tel que pour tout a ∈ K , a + 0 = a et 0 + a = a.
L’ensemble K possède également un élément neutre pour la multiplication noté 1 tel
que pour tout a ∈ K, a.1 = a et 1.a = a
vi) Éléments inverses : ∀a ∈ K , les équations a + x = 0 et x + a = 0 ont une solution
x ∈ K , inverse de a pour l’addition, note −a.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 23/ 65


Chapitre 1 : Les Structures Algébriques
1.7 Corps

Définition (Corps)
Un corps est un anneau unitaire dont tous les éléments non-nuls sont inversibles. Il est dit
commutatif si c’est un anneau commutatif, c-à-d si sa multiplication est commutative.

Définition (Corps)
Un corps est un ensemble K muni de deux opérations + et ·, vérifiant :
i) ∀ a, b ∈ K, a + b et a.b sont définis et uniques dans K
ii) Associativité : a + (b + c) = (a + b) + c et a.(b.c) = (a.b).c, ∀ a, b, c ∈ K
iii) Commutativité : a + b = b + a et a.b = b.a, ∀ a, b, c ∈ K
iv) Distributivité : a.(b + c) = (a.b) + (a.c) et (a + b).c = (a.c) + (b.c), ∀ a, b, c ∈ K
v) Éléments Neutres : l’ensemble K possède un élément neutre pour l’addition élément,
noté 0, et appelé élément nul tel que pour tout a ∈ K , a + 0 = a et 0 + a = a.
L’ensemble K possède également un élément neutre pour la multiplication noté 1 tel
que pour tout a ∈ K, a.1 = a et 1.a = a
vi) Éléments inverses : ∀a ∈ K , les équations a + x = 0 et x + a = 0 ont une solution
x ∈ K , inverse de a pour l’addition, note −a.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 23/ 65


Chapitre 1 : Les Structures Algébriques
1.7 Corps

Pour tout élément non nul a ∈ K, les équations a.x = 1 et x .a = 1 ont une solution
x ∈ K, appelé un inverse de a pour la multiplication, et note a−1 . Dire que K est un
corps en fait est un raccourci pour K, muni des opérations +, ∗ est un corps.

Exemple
• Q, le corps des nombres rationnels
• R, le corps des nombres réels
• C, le corps des nombres complexes
• (Z, +, ×) est un anneau commutatif intègre mais ce n’est pas un corps : les seuls
éléments inversibles (ayant un inverse) sont 1 et −1.

Définition (Sous-corps)
Un ensemble L ⊂ K , est un sous-corps si c’est lui-même un corps pour les lois induites
par le corps K.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 24/ 65


Chapitre 1 : Les Structures Algébriques
1.7 Corps

Pour tout élément non nul a ∈ K, les équations a.x = 1 et x .a = 1 ont une solution
x ∈ K, appelé un inverse de a pour la multiplication, et note a−1 . Dire que K est un
corps en fait est un raccourci pour K, muni des opérations +, ∗ est un corps.

Exemple
• Q, le corps des nombres rationnels
• R, le corps des nombres réels
• C, le corps des nombres complexes
• (Z, +, ×) est un anneau commutatif intègre mais ce n’est pas un corps : les seuls
éléments inversibles (ayant un inverse) sont 1 et −1.

Définition (Sous-corps)
Un ensemble L ⊂ K , est un sous-corps si c’est lui-même un corps pour les lois induites
par le corps K.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 24/ 65


Chapitre 1 : Les Structures Algébriques
1.7 Corps

Pour tout élément non nul a ∈ K, les équations a.x = 1 et x .a = 1 ont une solution
x ∈ K, appelé un inverse de a pour la multiplication, et note a−1 . Dire que K est un
corps en fait est un raccourci pour K, muni des opérations +, ∗ est un corps.

Exemple
• Q, le corps des nombres rationnels
• R, le corps des nombres réels
• C, le corps des nombres complexes
• (Z, +, ×) est un anneau commutatif intègre mais ce n’est pas un corps : les seuls
éléments inversibles (ayant un inverse) sont 1 et −1.

Définition (Sous-corps)
Un ensemble L ⊂ K , est un sous-corps si c’est lui-même un corps pour les lois induites
par le corps K.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 24/ 65


Chapitre 2 : Les Espaces Vectoriels

Chapitre 2 : Les Espaces Vectoriels

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 25/ 65


Chapitre 2 : Les Espaces Vectoriels
2.1 Définition et exemples

Les espaces vectoriels sont des groupes additifs munis d’une loi de composition externe
sur un corps K, notée : · : K × E −→ E .

Définition
Le triplet (E , +, .) est dit espace vectoriel sur le corps K ou K-espace vectoriel si :
1) (E , +) est un groupe abélien
2) la loi de composition externe · : K × E −→ E vérifie les axiomes suivants pour tout
λ, µ ∈ K et pour tout x , y ∈ E :
i) λ.(x + y ) = λ.x + λ.y
ii) (λ + µ).x = λ.x + µ.x
iii) λ.(µ.x ) = (λµ).x
iv) 1.x = x où 1 est l’élément neutre du produit interne de K.

Les éléments de K sont appelés scalaires et ceux de E sont appelés vecteurs.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 26/ 65


Chapitre 2 : Les Espaces Vectoriels
2.1 Définition et exemples

Les espaces vectoriels sont des groupes additifs munis d’une loi de composition externe
sur un corps K, notée : · : K × E −→ E .

Définition
Le triplet (E , +, .) est dit espace vectoriel sur le corps K ou K-espace vectoriel si :
1) (E , +) est un groupe abélien
2) la loi de composition externe · : K × E −→ E vérifie les axiomes suivants pour tout
λ, µ ∈ K et pour tout x , y ∈ E :
i) λ.(x + y ) = λ.x + λ.y
ii) (λ + µ).x = λ.x + µ.x
iii) λ.(µ.x ) = (λµ).x
iv) 1.x = x où 1 est l’élément neutre du produit interne de K.

Les éléments de K sont appelés scalaires et ceux de E sont appelés vecteurs.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 26/ 65


Chapitre 2 : Les Espaces Vectoriels
2.1 Définition et exemples

Les espaces vectoriels sont des groupes additifs munis d’une loi de composition externe
sur un corps K, notée : · : K × E −→ E .

Définition
Le triplet (E , +, .) est dit espace vectoriel sur le corps K ou K-espace vectoriel si :
1) (E , +) est un groupe abélien
2) la loi de composition externe · : K × E −→ E vérifie les axiomes suivants pour tout
λ, µ ∈ K et pour tout x , y ∈ E :
i) λ.(x + y ) = λ.x + λ.y
ii) (λ + µ).x = λ.x + µ.x
iii) λ.(µ.x ) = (λµ).x
iv) 1.x = x où 1 est l’élément neutre du produit interne de K.

Les éléments de K sont appelés scalaires et ceux de E sont appelés vecteurs.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 26/ 65


Chapitre 2 : Les Espaces Vectoriels
2.1 Définition et exemples

Les espaces vectoriels sont des groupes additifs munis d’une loi de composition externe
sur un corps K, notée : · : K × E −→ E .

Définition
Le triplet (E , +, .) est dit espace vectoriel sur le corps K ou K-espace vectoriel si :
1) (E , +) est un groupe abélien
2) la loi de composition externe · : K × E −→ E vérifie les axiomes suivants pour tout
λ, µ ∈ K et pour tout x , y ∈ E :
i) λ.(x + y ) = λ.x + λ.y
ii) (λ + µ).x = λ.x + µ.x
iii) λ.(µ.x ) = (λµ).x
iv) 1.x = x où 1 est l’élément neutre du produit interne de K.

Les éléments de K sont appelés scalaires et ceux de E sont appelés vecteurs.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 26/ 65


Chapitre 2 : Les Espaces Vectoriels
2.1 Définition et exemples

Exemple
◀ Kn est l’ensemble des n-uplets x = (x1 , x2 , ..., xn ) d’éléments de K. Les xi sont appelés
composantes de x . On pose x + y = (x1 + y1 , ..., xn + yn ) et λ.x = (λx1 , λx2 , ..., λxn ).
On vérifie facilement que l’on définit ainsi un espace vectoriel sur K.
◀ En particulier, le corps K est un espace vectoriel sur lui-même.
◀ Un polynôme à coefficients dans K en l’indéterminée X est une expression de la forme
a0 + a1 X + ... + an xn . L’ensemble de ces polynômes, noté K[X ], muni des opérations
usuelles, est un espace vectoriel sur K.
◀ Les ensembles R2 , R3 et Rn sont bien des espaces vectoriels sur R.
◀ Les suites réelles (l’ensemble RN ou (N, R)) est un espace vectoriel sur R.
◀ L’ensemble RR ou (R, R) est l’espace vectoriel des applications de R dans R sur le
corps R des réels.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 27/ 65


Chapitre 2 : Les Espaces Vectoriels
2.1 Définition et exemples

Proposition
Soit (E , +, .) un espace vectoriel sur le corps K. On a :
i) ∀ x ∈ E , 0.x = 0E , où 0 est le neutre de (K, +) et 0E le neutre de (E , +)
ii) ∀ λ ∈ K, λ.0E = 0E
iii) −1.x = −x où −1 et −x sont les symétriques de 1 et x dans (K, +) et (E , +)
iv) λ.x = 0E ⇒ λ = 0 ou x = 0E

Preuve
i) 1.x = x = (1 + 0).x = 1.x + 0.x = x + 0.x ⇒ x = x + 0.x ⇒ 0.x = 0E .
ii) λ.0E = λ.(0.x ) = (λ0).x = 0.x = 0E .
iii) 0E = 0.x = [1 + (−1)].x = x + (−1).x ⇒ (−1).x = −x .
1 1 1
iv) Si λ.x = 0E et λ ̸= 0, alors .(λ.x ) = .0E ⇒ ( λ).x = 0E ⇔ 1.x = 0E ⇒ x = 0E .
λ λ λ

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 28/ 65


Chapitre 2 : Les Espaces Vectoriels
2.1 Définition et exemples

Proposition
Soit (E , +, .) un espace vectoriel sur le corps K. On a :
i) ∀ x ∈ E , 0.x = 0E , où 0 est le neutre de (K, +) et 0E le neutre de (E , +)
ii) ∀ λ ∈ K, λ.0E = 0E
iii) −1.x = −x où −1 et −x sont les symétriques de 1 et x dans (K, +) et (E , +)
iv) λ.x = 0E ⇒ λ = 0 ou x = 0E

Preuve
i) 1.x = x = (1 + 0).x = 1.x + 0.x = x + 0.x ⇒ x = x + 0.x ⇒ 0.x = 0E .
ii) λ.0E = λ.(0.x ) = (λ0).x = 0.x = 0E .
iii) 0E = 0.x = [1 + (−1)].x = x + (−1).x ⇒ (−1).x = −x .
1 1 1
iv) Si λ.x = 0E et λ ̸= 0, alors .(λ.x ) = .0E ⇒ ( λ).x = 0E ⇔ 1.x = 0E ⇒ x = 0E .
λ λ λ

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 28/ 65


Chapitre 2 : Les Espaces Vectoriels
2.2 Sous-espace vectoriel

Une autre façon de montrer qu’un ensemble F est un e.v est de montrer qu’il est un s.e.v
d’un e.v E .
Définition (s.e.v)
Un sous-espace vectoriel (F , +, ·) d’un e.v (E , +, .) sur le corps K est une partie F de
E satisfaisant les propriétés suivantes :
i) F contient le vecteur nul 0E
ii) stabilité de F pour la loi + : si x ∈ F et y ∈ F , alors x + y ∈ F
iii) stabilité de F pour la loi . : si λ ∈ K et x ∈ F alors λ.x ∈ F .

Exemple
L’ensemble F = {(x , y , z) ∈ R3 / x + y + z = 0} est un s.e.v de R3 sur le corps R.

Proposition
Soit E un e.v. Une intersection de s.e.v de E est un s.e.v de E .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 29/ 65


Chapitre 2 : Les Espaces Vectoriels
2.2 Sous-espace vectoriel

Une autre façon de montrer qu’un ensemble F est un e.v est de montrer qu’il est un s.e.v
d’un e.v E .
Définition (s.e.v)
Un sous-espace vectoriel (F , +, ·) d’un e.v (E , +, .) sur le corps K est une partie F de
E satisfaisant les propriétés suivantes :
i) F contient le vecteur nul 0E
ii) stabilité de F pour la loi + : si x ∈ F et y ∈ F , alors x + y ∈ F
iii) stabilité de F pour la loi . : si λ ∈ K et x ∈ F alors λ.x ∈ F .

Exemple
L’ensemble F = {(x , y , z) ∈ R3 / x + y + z = 0} est un s.e.v de R3 sur le corps R.

Proposition
Soit E un e.v. Une intersection de s.e.v de E est un s.e.v de E .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 29/ 65


Chapitre 2 : Les Espaces Vectoriels
2.2 Sous-espace vectoriel

Une autre façon de montrer qu’un ensemble F est un e.v est de montrer qu’il est un s.e.v
d’un e.v E .
Définition (s.e.v)
Un sous-espace vectoriel (F , +, ·) d’un e.v (E , +, .) sur le corps K est une partie F de
E satisfaisant les propriétés suivantes :
i) F contient le vecteur nul 0E
ii) stabilité de F pour la loi + : si x ∈ F et y ∈ F , alors x + y ∈ F
iii) stabilité de F pour la loi . : si λ ∈ K et x ∈ F alors λ.x ∈ F .

Exemple
L’ensemble F = {(x , y , z) ∈ R3 / x + y + z = 0} est un s.e.v de R3 sur le corps R.

Proposition
Soit E un e.v. Une intersection de s.e.v de E est un s.e.v de E .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 29/ 65


Chapitre 2 : Les Espaces Vectoriels
2.2 Sous-espace vectoriel engendré par une partie

Exemple
◀ {0E } et E sont bien des s.e.v de E . On note C n (R) l’espace vectoriel des fonctions n
fois dérivables de R dans R. Alors l’intersection de tous ces s.e.v est un s.e.v noté C ∞ (R),
espace vectoriel des fonctions indéfiniment dérivables sur R. C 0 (R) est différent de C 1 (R)
(par exemple, l’application x 7→ |x |).
◀ Un espace vectoriel E est un s.e.v de lui-même.

Définition
Si F est un s.e.v de E , alors il contient tous les vecteurs qui s’écrivent sous la forme
n
X
λ1 x1 + λ2 x2 + ... + λn xn = λi xi où les λi sont des scalaires et les xi des vecteurs de F .
i=1
◀ Une telle expression est appelée combinaison linéaire des n vecteurs x1 , x2 , ..., xn .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 30/ 65


Chapitre 2 : Les Espaces Vectoriels
2.2 Sous-espace vectoriel engendré par une partie

Exemple
◀ {0E } et E sont bien des s.e.v de E . On note C n (R) l’espace vectoriel des fonctions n
fois dérivables de R dans R. Alors l’intersection de tous ces s.e.v est un s.e.v noté C ∞ (R),
espace vectoriel des fonctions indéfiniment dérivables sur R. C 0 (R) est différent de C 1 (R)
(par exemple, l’application x 7→ |x |).
◀ Un espace vectoriel E est un s.e.v de lui-même.

Définition
Si F est un s.e.v de E , alors il contient tous les vecteurs qui s’écrivent sous la forme
n
X
λ1 x1 + λ2 x2 + ... + λn xn = λi xi où les λi sont des scalaires et les xi des vecteurs de F .
i=1
◀ Une telle expression est appelée combinaison linéaire des n vecteurs x1 , x2 , ..., xn .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 30/ 65


Chapitre 2 : Les Espaces Vectoriels
2.2 Sous-espace vectoriel engendré par une partie

Définition
• Si A est une partie d’un e.v E , on note Vect(A) l’ensemble des combinaisons linéaires
d’éléments de A.
• Vect(A) est un s.e.v de E .
• C’est le plus petit qui contienne A.
• On dit que Vect(A) est engendré par A, ou que A engendre Vect(A) ou encore que A
est un générateur ou une partie génératrice de Vect(A).
• Si A ⊂ B, alors on a Vect(A) ⊂ Vect(B). On convient que Vect(∅) = {0E }.

Une autre façon de définir un e.v est de le définir comme s.e.v engendré par une partie.
Soit M = {x1 , ..., xp } une partie d’un e.v E . Considérons F l’ensemble des combinaisons
linéaires de la forme λ1 x1 + ... + λp xp avec λi ∈ K, ∀ i = 1, ..., p. Il est facile de voir
que : (i) F est un s.e.v de E ; (ii) si G est un s.e.v de E contenant M, alors F est inclus
dans G. F est donc le plus petit s.e.v de E contenant M. On dit que F est engendré par
M ou que M est un système générateur de F ou une partie génératrice de F . Si F = E ,
on parle simplement de partie génératrice.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 31/ 65


Chapitre 2 : Les Espaces Vectoriels
2.2 Sous-espace vectoriel engendré par une partie

Définition
• Si A est une partie d’un e.v E , on note Vect(A) l’ensemble des combinaisons linéaires
d’éléments de A.
• Vect(A) est un s.e.v de E .
• C’est le plus petit qui contienne A.
• On dit que Vect(A) est engendré par A, ou que A engendre Vect(A) ou encore que A
est un générateur ou une partie génératrice de Vect(A).
• Si A ⊂ B, alors on a Vect(A) ⊂ Vect(B). On convient que Vect(∅) = {0E }.

Une autre façon de définir un e.v est de le définir comme s.e.v engendré par une partie.
Soit M = {x1 , ..., xp } une partie d’un e.v E . Considérons F l’ensemble des combinaisons
linéaires de la forme λ1 x1 + ... + λp xp avec λi ∈ K, ∀ i = 1, ..., p. Il est facile de voir
que : (i) F est un s.e.v de E ; (ii) si G est un s.e.v de E contenant M, alors F est inclus
dans G. F est donc le plus petit s.e.v de E contenant M. On dit que F est engendré par
M ou que M est un système générateur de F ou une partie génératrice de F . Si F = E ,
on parle simplement de partie génératrice.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 31/ 65


Chapitre 2 : Les Espaces Vectoriels
2.2 Famille génératrice et famille libre

Définition (Famille génératrice)


On appelle famille génératrice d’un e.v E toute famille finie A de vecteurs de E telle
que tout vecteur de E se décompose suivant A, c’est-à-dire s’écrit comme combinaison
linéaire des vecteurs de A. On dit que A engendre E .

Ainsi, on dit que A est une famille génératrice de E si et seulement si E = Vect(A).

Définition (Famille libre)


Une partie A d’un espace vectoriel E est dite famille libre si, pour tout x ∈ A, le s.e.v
Vect(A\{x }) ne contient pas x .

On dit alors que les éléments de A sont linéairement indépendants. Paraphrasons cette
dernière définition : une partie A de E est libre ssi aucun élément de A n’est combinaison
linéaire d’autres éléments de A. Autrement dit, une partie A de E est libre ssi quels que
soient les vecteurs distincts x1 , ..., xk de A et les scalaires λ1 , ..., λk , la relation suivante
Pk
est vérifiée : i=1
λi xi = 0E ⇒ λ1 = λ2 = ... = λk = 0

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 32/ 65


Chapitre 2 : Les Espaces Vectoriels
2.2 Famille génératrice et famille libre

Définition (Famille génératrice)


On appelle famille génératrice d’un e.v E toute famille finie A de vecteurs de E telle
que tout vecteur de E se décompose suivant A, c’est-à-dire s’écrit comme combinaison
linéaire des vecteurs de A. On dit que A engendre E .

Ainsi, on dit que A est une famille génératrice de E si et seulement si E = Vect(A).

Définition (Famille libre)


Une partie A d’un espace vectoriel E est dite famille libre si, pour tout x ∈ A, le s.e.v
Vect(A\{x }) ne contient pas x .

On dit alors que les éléments de A sont linéairement indépendants. Paraphrasons cette
dernière définition : une partie A de E est libre ssi aucun élément de A n’est combinaison
linéaire d’autres éléments de A. Autrement dit, une partie A de E est libre ssi quels que
soient les vecteurs distincts x1 , ..., xk de A et les scalaires λ1 , ..., λk , la relation suivante
Pk
est vérifiée : i=1
λi xi = 0E ⇒ λ1 = λ2 = ... = λk = 0

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 32/ 65


Chapitre 2 : Les Espaces Vectoriels
2.2 Famille génératrice et famille libre

Définition (Famille génératrice)


On appelle famille génératrice d’un e.v E toute famille finie A de vecteurs de E telle
que tout vecteur de E se décompose suivant A, c’est-à-dire s’écrit comme combinaison
linéaire des vecteurs de A. On dit que A engendre E .

Ainsi, on dit que A est une famille génératrice de E si et seulement si E = Vect(A).

Définition (Famille libre)


Une partie A d’un espace vectoriel E est dite famille libre si, pour tout x ∈ A, le s.e.v
Vect(A\{x }) ne contient pas x .

On dit alors que les éléments de A sont linéairement indépendants. Paraphrasons cette
dernière définition : une partie A de E est libre ssi aucun élément de A n’est combinaison
linéaire d’autres éléments de A. Autrement dit, une partie A de E est libre ssi quels que
soient les vecteurs distincts x1 , ..., xk de A et les scalaires λ1 , ..., λk , la relation suivante
Pk
est vérifiée : i=1
λi xi = 0E ⇒ λ1 = λ2 = ... = λk = 0

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 32/ 65


Chapitre 2 : Les Espaces Vectoriels
2.2 Famille génératrice et famille libre

Définition (Famille génératrice)


On appelle famille génératrice d’un e.v E toute famille finie A de vecteurs de E telle
que tout vecteur de E se décompose suivant A, c’est-à-dire s’écrit comme combinaison
linéaire des vecteurs de A. On dit que A engendre E .

Ainsi, on dit que A est une famille génératrice de E si et seulement si E = Vect(A).

Définition (Famille libre)


Une partie A d’un espace vectoriel E est dite famille libre si, pour tout x ∈ A, le s.e.v
Vect(A\{x }) ne contient pas x .

On dit alors que les éléments de A sont linéairement indépendants. Paraphrasons cette
dernière définition : une partie A de E est libre ssi aucun élément de A n’est combinaison
linéaire d’autres éléments de A. Autrement dit, une partie A de E est libre ssi quels que
soient les vecteurs distincts x1 , ..., xk de A et les scalaires λ1 , ..., λk , la relation suivante
Pk
est vérifiée : i=1
λi xi = 0E ⇒ λ1 = λ2 = ... = λk = 0

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 32/ 65


Chapitre 2 : Les Espaces Vectoriels
2.3 Famille génératrice et famille libre

Remarque
◀ Une partie libre d’un e.v E ne peut contenir le vecteur nul 0E .
◀ Toute partie non vide d’une partie libre est libre.
◀ Une partie non libre est dite liée.
Pk
◀ L’expression i=1
λi xi = 0E où les scalaires λi ne sont pas tous nuls, est appelée
relation de dépendance linéaire entre les vecteurs x1 , x2 , ..., xk .

Proposition
Une partie A de l’espace vectoriel E est dite libre ssi tout x ∈ Vect(A) s’écrit de façon
unique comme combinaison linéaire d’éléments de A.

Proposition (Définition)
Soit {V1 , ..., Vn } un système de n vecteurs d’un e.v E . On a équivalence entre :
Pn
i) Toute c.l des n vecteurs Vi s’écrit de manière unique sous la forme i=1
λi Vi
Pn
ii) ∀ (λ1 , ..., λn ) ∈ Kn , λ V = 0E ⇒ λi = 0 ∀ i = 1, ..., n.
i=1 i i

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 33/ 65


Chapitre 2 : Les Espaces Vectoriels
2.3 Famille génératrice et famille libre

Remarque
◀ Une partie libre d’un e.v E ne peut contenir le vecteur nul 0E .
◀ Toute partie non vide d’une partie libre est libre.
◀ Une partie non libre est dite liée.
Pk
◀ L’expression i=1
λi xi = 0E où les scalaires λi ne sont pas tous nuls, est appelée
relation de dépendance linéaire entre les vecteurs x1 , x2 , ..., xk .

Proposition
Une partie A de l’espace vectoriel E est dite libre ssi tout x ∈ Vect(A) s’écrit de façon
unique comme combinaison linéaire d’éléments de A.

Proposition (Définition)
Soit {V1 , ..., Vn } un système de n vecteurs d’un e.v E . On a équivalence entre :
Pn
i) Toute c.l des n vecteurs Vi s’écrit de manière unique sous la forme i=1
λi Vi
Pn
ii) ∀ (λ1 , ..., λn ) ∈ Kn , λ V = 0E ⇒ λi = 0 ∀ i = 1, ..., n.
i=1 i i

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 33/ 65


Chapitre 2 : Les Espaces Vectoriels
2.3 Famille génératrice et famille libre

Remarque
◀ Une partie libre d’un e.v E ne peut contenir le vecteur nul 0E .
◀ Toute partie non vide d’une partie libre est libre.
◀ Une partie non libre est dite liée.
Pk
◀ L’expression i=1
λi xi = 0E où les scalaires λi ne sont pas tous nuls, est appelée
relation de dépendance linéaire entre les vecteurs x1 , x2 , ..., xk .

Proposition
Une partie A de l’espace vectoriel E est dite libre ssi tout x ∈ Vect(A) s’écrit de façon
unique comme combinaison linéaire d’éléments de A.

Proposition (Définition)
Soit {V1 , ..., Vn } un système de n vecteurs d’un e.v E . On a équivalence entre :
Pn
i) Toute c.l des n vecteurs Vi s’écrit de manière unique sous la forme i=1
λi Vi
Pn
ii) ∀ (λ1 , ..., λn ) ∈ Kn , λ V = 0E ⇒ λi = 0 ∀ i = 1, ..., n.
i=1 i i

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 33/ 65


Chapitre 2 : Les Espaces Vectoriels
2.3 Dépendance et indépendance linéaire

Démonstration.
⇒ ii) résulte de l’unicité de la décomposition de 0E .
⇒ i) On suppose qu’il existe deux décompositions possibles d’un vecteur W : W =
Pn Pn Pn
i=1
λi Vi = i=1
µi V i ⇒ i=1
(λi − µi )Vi = 0E ⇒ λi − µi = 0, ∀ i = 1, ..., n, ce qui
prouve bien l’unicité de la décomposition.

Proposition
Soient A et B deux systèmes de vecteurs. On a :
i) 0E ∈ A ⇒ A lié ii) A lié et A ⊂ B, alors B est lié
iii) V ̸= 0E ⇒ (V ) libre iv) A libre et B ⊂ A, alors B libre
v) A lié ⇒ il existe un des vecteurs de A combinaison linéaire des autres.

Lemme
Si B est une partie libre d’un e.v E et si x ∈
/ Vect(B), alors B ∪ {x } est libre.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 34/ 65


Chapitre 2 : Les Espaces Vectoriels
2.3 Dépendance et indépendance linéaire

Démonstration.
⇒ ii) résulte de l’unicité de la décomposition de 0E .
⇒ i) On suppose qu’il existe deux décompositions possibles d’un vecteur W : W =
Pn Pn Pn
i=1
λi Vi = i=1
µi V i ⇒ i=1
(λi − µi )Vi = 0E ⇒ λi − µi = 0, ∀ i = 1, ..., n, ce qui
prouve bien l’unicité de la décomposition.

Proposition
Soient A et B deux systèmes de vecteurs. On a :
i) 0E ∈ A ⇒ A lié ii) A lié et A ⊂ B, alors B est lié
iii) V ̸= 0E ⇒ (V ) libre iv) A libre et B ⊂ A, alors B libre
v) A lié ⇒ il existe un des vecteurs de A combinaison linéaire des autres.

Lemme
Si B est une partie libre d’un e.v E et si x ∈
/ Vect(B), alors B ∪ {x } est libre.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 34/ 65


Chapitre 2 : Les Espaces Vectoriels
2.3 Dépendance et indépendance linéaire

Démonstration.
⇒ ii) résulte de l’unicité de la décomposition de 0E .
⇒ i) On suppose qu’il existe deux décompositions possibles d’un vecteur W : W =
Pn Pn Pn
i=1
λi Vi = i=1
µi V i ⇒ i=1
(λi − µi )Vi = 0E ⇒ λi − µi = 0, ∀ i = 1, ..., n, ce qui
prouve bien l’unicité de la décomposition.

Proposition
Soient A et B deux systèmes de vecteurs. On a :
i) 0E ∈ A ⇒ A lié ii) A lié et A ⊂ B, alors B est lié
iii) V ̸= 0E ⇒ (V ) libre iv) A libre et B ⊂ A, alors B libre
v) A lié ⇒ il existe un des vecteurs de A combinaison linéaire des autres.

Lemme
Si B est une partie libre d’un e.v E et si x ∈
/ Vect(B), alors B ∪ {x } est libre.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 34/ 65


Chapitre 2 : Les Espaces Vectoriels
2.3 Dépendance et indépendance linéaire

Démonstration.
Considérons des vecteurs x1 , ..., xk dans B ∪ {x } et des scalaires λ1 , ..., λk tels que
Pk
λ x = 0E . Le vecteur X ne peut figurer dans cette relation avec un coefficient
i=1 i i
non nul, car sinon il appartiendrait à Vect(B). Mais alors la relation ci-dessus est une re-
lation de dépendance entre les éléments de B. Tous les coefficients λi sont donc nuls.

Lemme
Soit A une partie non vide d’un e.v E et B une partie libre contenue dans Vect(A). Si
Vect(B) est strictement contenu dans Vect(A), il existe a ∈ A tel que B ∪ {a} soit libre
et tel que Vect(B) ∪ {a}) contienne strictement Vect(B).

Démonstration.
Si A était contenu dans Vect(B), on aurait Vect(A) = Vect(B). Il existe donc a ∈ A tel
que a ∈/ Vect(B). Alors Vect(B ∪ {a}) contient a, alors que Vect(B) ne le contient pas.
De plus, B ∪ {a} est libre.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 35/ 65


Chapitre 2 : Les Espaces Vectoriels
2.3 Dépendance et indépendance linéaire

Démonstration.
Considérons des vecteurs x1 , ..., xk dans B ∪ {x } et des scalaires λ1 , ..., λk tels que
Pk
λ x = 0E . Le vecteur X ne peut figurer dans cette relation avec un coefficient
i=1 i i
non nul, car sinon il appartiendrait à Vect(B). Mais alors la relation ci-dessus est une re-
lation de dépendance entre les éléments de B. Tous les coefficients λi sont donc nuls.

Lemme
Soit A une partie non vide d’un e.v E et B une partie libre contenue dans Vect(A). Si
Vect(B) est strictement contenu dans Vect(A), il existe a ∈ A tel que B ∪ {a} soit libre
et tel que Vect(B) ∪ {a}) contienne strictement Vect(B).

Démonstration.
Si A était contenu dans Vect(B), on aurait Vect(A) = Vect(B). Il existe donc a ∈ A tel
que a ∈/ Vect(B). Alors Vect(B ∪ {a}) contient a, alors que Vect(B) ne le contient pas.
De plus, B ∪ {a} est libre.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 35/ 65


Chapitre 2 : Les Espaces Vectoriels
2.3 Dépendance et indépendance linéaire

Démonstration.
Considérons des vecteurs x1 , ..., xk dans B ∪ {x } et des scalaires λ1 , ..., λk tels que
Pk
λ x = 0E . Le vecteur X ne peut figurer dans cette relation avec un coefficient
i=1 i i
non nul, car sinon il appartiendrait à Vect(B). Mais alors la relation ci-dessus est une re-
lation de dépendance entre les éléments de B. Tous les coefficients λi sont donc nuls.

Lemme
Soit A une partie non vide d’un e.v E et B une partie libre contenue dans Vect(A). Si
Vect(B) est strictement contenu dans Vect(A), il existe a ∈ A tel que B ∪ {a} soit libre
et tel que Vect(B) ∪ {a}) contienne strictement Vect(B).

Démonstration.
Si A était contenu dans Vect(B), on aurait Vect(A) = Vect(B). Il existe donc a ∈ A tel
que a ∈/ Vect(B). Alors Vect(B ∪ {a}) contient a, alors que Vect(B) ne le contient pas.
De plus, B ∪ {a} est libre.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 35/ 65


Chapitre 2 : Les Espaces Vectoriels
2.3 Bases

Définition
Une partie B d’un e.v E est une base de E si elle est à la fois libre et génératrice de E .

Il résulte que B est une base de E ssi tout vecteur x ∈ E s’écrit de façon unique comme
c.l d’éléments de B. Les scalaires de cette combinaison sont les composantes du vecteur.

Exemple
Une base de Kn est B = {(1, 0, ..., 0), (0, 1, 0, ..., 0), ..., (0, 0, ..., 1)}, dite base canonique.
Une base des polynômes de degré inférieur ou égal à n est B = {1, x , x 2 , ..., x n }. Si E
et F sont deux e.v de bases respectives BE = {e1 , ..., ep } et BF = {f1 , ..., fn }, alors le
produit cartésien E × F admet pour base : B = {(e1 , 0F ), ..., (ep , 0F ), (0E , f1 ), ..., (0E , fn )}.
Pp Pn
En effet, tout couple (x , y ) de E × F avec x = λi ei et y = i=1 µi fi se décompose
Pp i=1 Pn
de manière unique sous la forme : (x , y ) = i=1
λi (ei , 0F ) + i=1
µi (0E , fi ). On a donc
dim E × F = dim E + dim F , formule qu’on retrouve implicitement dans : n + p =
dim Rn+p = dim Rn × Rp = dim Rn + dim Rp .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 36/ 65


Chapitre 2 : Les Espaces Vectoriels
2.3 Bases

Définition
Une partie B d’un e.v E est une base de E si elle est à la fois libre et génératrice de E .

Il résulte que B est une base de E ssi tout vecteur x ∈ E s’écrit de façon unique comme
c.l d’éléments de B. Les scalaires de cette combinaison sont les composantes du vecteur.

Exemple
Une base de Kn est B = {(1, 0, ..., 0), (0, 1, 0, ..., 0), ..., (0, 0, ..., 1)}, dite base canonique.
Une base des polynômes de degré inférieur ou égal à n est B = {1, x , x 2 , ..., x n }. Si E
et F sont deux e.v de bases respectives BE = {e1 , ..., ep } et BF = {f1 , ..., fn }, alors le
produit cartésien E × F admet pour base : B = {(e1 , 0F ), ..., (ep , 0F ), (0E , f1 ), ..., (0E , fn )}.
Pp Pn
En effet, tout couple (x , y ) de E × F avec x = λi ei et y = i=1 µi fi se décompose
Pp i=1 Pn
de manière unique sous la forme : (x , y ) = i=1
λi (ei , 0F ) + i=1
µi (0E , fi ). On a donc
dim E × F = dim E + dim F , formule qu’on retrouve implicitement dans : n + p =
dim Rn+p = dim Rn × Rp = dim Rn + dim Rp .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 36/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4 Espace vectoriel de dimension finie

Un e.v est dit de dimension finie s’il est engendré par une partie finie. On cherche à
montrer que toutes les bases de cet e.v sont constituées du même nombre de vecteurs.
Ce nombre s’appellera dimension de l’espace vectoriel.

Définition
La dimension d’un e.v de dimension finie E , différent de {0E }, noté dim E , est le nombre
d’éléments de n’importe laquelle de ses bases. On convient que dim{0E } = 0.

Théorème
Soit E un e.v engendré par A = {V1 , ..., Vn } et soit B = {W1 , ..., Wp } un système. Si B
est libre, alors p ≤ n. Autrement dit, si p > n, alors B est une famille liée.

Théorème (Théorème de la dimension des bases)


Soit E un e.v engendré par une partie finie. Alors E admet une base, et toutes les bases
de E ont même nombre de vecteurs. Ce nombre s’appelle la dimension de E .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 37/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4 Espace vectoriel de dimension finie

Un e.v est dit de dimension finie s’il est engendré par une partie finie. On cherche à
montrer que toutes les bases de cet e.v sont constituées du même nombre de vecteurs.
Ce nombre s’appellera dimension de l’espace vectoriel.

Définition
La dimension d’un e.v de dimension finie E , différent de {0E }, noté dim E , est le nombre
d’éléments de n’importe laquelle de ses bases. On convient que dim{0E } = 0.

Théorème
Soit E un e.v engendré par A = {V1 , ..., Vn } et soit B = {W1 , ..., Wp } un système. Si B
est libre, alors p ≤ n. Autrement dit, si p > n, alors B est une famille liée.

Théorème (Théorème de la dimension des bases)


Soit E un e.v engendré par une partie finie. Alors E admet une base, et toutes les bases
de E ont même nombre de vecteurs. Ce nombre s’appelle la dimension de E .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 37/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4 Espace vectoriel de dimension finie

Un e.v est dit de dimension finie s’il est engendré par une partie finie. On cherche à
montrer que toutes les bases de cet e.v sont constituées du même nombre de vecteurs.
Ce nombre s’appellera dimension de l’espace vectoriel.

Définition
La dimension d’un e.v de dimension finie E , différent de {0E }, noté dim E , est le nombre
d’éléments de n’importe laquelle de ses bases. On convient que dim{0E } = 0.

Théorème
Soit E un e.v engendré par A = {V1 , ..., Vn } et soit B = {W1 , ..., Wp } un système. Si B
est libre, alors p ≤ n. Autrement dit, si p > n, alors B est une famille liée.

Théorème (Théorème de la dimension des bases)


Soit E un e.v engendré par une partie finie. Alors E admet une base, et toutes les bases
de E ont même nombre de vecteurs. Ce nombre s’appelle la dimension de E .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 37/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4 Espace vectoriel de dimension finie

Un e.v est dit de dimension finie s’il est engendré par une partie finie. On cherche à
montrer que toutes les bases de cet e.v sont constituées du même nombre de vecteurs.
Ce nombre s’appellera dimension de l’espace vectoriel.

Définition
La dimension d’un e.v de dimension finie E , différent de {0E }, noté dim E , est le nombre
d’éléments de n’importe laquelle de ses bases. On convient que dim{0E } = 0.

Théorème
Soit E un e.v engendré par A = {V1 , ..., Vn } et soit B = {W1 , ..., Wp } un système. Si B
est libre, alors p ≤ n. Autrement dit, si p > n, alors B est une famille liée.

Théorème (Théorème de la dimension des bases)


Soit E un e.v engendré par une partie finie. Alors E admet une base, et toutes les bases
de E ont même nombre de vecteurs. Ce nombre s’appelle la dimension de E .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 37/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4 Espace vectoriel de dimension finie

Démonstration.
Existence d’une base : Si A = {V1 , ..., Vn } engendre E et s’il est libre, alors il forme une
base de E . S’il est lié, l’un des vecteurs, par exemple Vn , est c.l des autres. Il n’est pas
difficile de voir que A′ = {V1 , ..., Vn−1 } reste un système générateur de E . On itère le
procédé jusqu’à obtenir un système générateur libre. Cette méthode est constructive.
Dimension des bases : Soient A = {V1 , ..., Vn } et B = {W1 , ..., Wp } deux bases de E .
Alors on a :
i) A est générateur et B est libre donc p ≤ n
ii) A est libre et B est générateur donc n ≤ p.
Donc p = n.

Proposition
Dans un espace vectoriel E de dimension n ∈ N∗ , on a :
i) toute famille libre de E a au plus n éléments
ii) toute famille génératrice de E a au moins n éléments

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 38/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4 Espace vectoriel de dimension finie

Démonstration.
Existence d’une base : Si A = {V1 , ..., Vn } engendre E et s’il est libre, alors il forme une
base de E . S’il est lié, l’un des vecteurs, par exemple Vn , est c.l des autres. Il n’est pas
difficile de voir que A′ = {V1 , ..., Vn−1 } reste un système générateur de E . On itère le
procédé jusqu’à obtenir un système générateur libre. Cette méthode est constructive.
Dimension des bases : Soient A = {V1 , ..., Vn } et B = {W1 , ..., Wp } deux bases de E .
Alors on a :
i) A est générateur et B est libre donc p ≤ n
ii) A est libre et B est générateur donc n ≤ p.
Donc p = n.

Proposition
Dans un espace vectoriel E de dimension n ∈ N∗ , on a :
i) toute famille libre de E a au plus n éléments
ii) toute famille génératrice de E a au moins n éléments

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 38/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4 Espace vectoriel de dimension finie

Démonstration.
Soit B une base de E . Ainsi, Card(B) = n = dim E .
i) Soit L une famille libre de E . B étant une base de E , on a Card(L) ≤ Card(B) = n.
ii) Soit G une famille génératrice de E . B étant libre de E , on a n = Card(B) ≤ Card(G).

D’après cette proposition, si dim E = n, alors toute famille de n + 1 vecteurs de E est


liée.
Proposition
i) {W1 , ..., Wn } libre ⇒ n ≤ dim E
ii) {W1 , ..., Wn } générateur ⇒ n ≥ dim E
iii) {W1 , ..., Wn } base ⇒ n = dim E
iv) n > dim E ⇒ {W1 , ..., Wn } lié
v) {W1 , ..., Wn } libre et n = dim E ⇒ {W1 , ..., Wn } base
vi) {W1 , ..., Wn } générateur et n = dim E ⇒ {W1 , ..., Wn } base

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 39/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4 Espace vectoriel de dimension finie

Démonstration.
Soit B une base de E . Ainsi, Card(B) = n = dim E .
i) Soit L une famille libre de E . B étant une base de E , on a Card(L) ≤ Card(B) = n.
ii) Soit G une famille génératrice de E . B étant libre de E , on a n = Card(B) ≤ Card(G).

D’après cette proposition, si dim E = n, alors toute famille de n + 1 vecteurs de E est


liée.
Proposition
i) {W1 , ..., Wn } libre ⇒ n ≤ dim E
ii) {W1 , ..., Wn } générateur ⇒ n ≥ dim E
iii) {W1 , ..., Wn } base ⇒ n = dim E
iv) n > dim E ⇒ {W1 , ..., Wn } lié
v) {W1 , ..., Wn } libre et n = dim E ⇒ {W1 , ..., Wn } base
vi) {W1 , ..., Wn } générateur et n = dim E ⇒ {W1 , ..., Wn } base

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 39/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4.1 Théorème de la base incomplète

Démonstration.
i)résulte du théorème fondamental et de même pour le (ii) aussi
iii)est la définition de dim E
iv) est la contra-posée de (i)
v) Pour tout V de E ,P {W1 , ..., Wn , V } est lié (d’après iv). Donc il existe α1 , ..., αn , β non
n
tous nuls tels que i=1 αi Wi +βV = 0E . Il est facile de voir que β est nécessairement
non nul, sinon tous les αi seraient nuls. V est donc combinaison linéaire des Wi qui
forment un système générateur
vi) Si le système est lié, on peut supprimer un des vecteurs combinaison linéaire des autres
tout en gardant un système générateur. Cela imposerait que dim E soit inférieur à n

Un autre moyen de former une base est le suivant.

Théorème (Théorème de la base incomplète)


Soit E un espace vectoriel de base B = {V1 , ..., Vn }, et soit A = {W1 , ..., Wp } un système
libre. Alors il existe n − p vecteurs parmi les Vi tel que le système constitué de ces n − p
vecteurs Vi et des Wj forme une base de E .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 40/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4.1 Théorème de la base incomplète

Démonstration.
i)résulte du théorème fondamental et de même pour le (ii) aussi
iii)est la définition de dim E
iv) est la contra-posée de (i)
v) Pour tout V de E ,P {W1 , ..., Wn , V } est lié (d’après iv). Donc il existe α1 , ..., αn , β non
n
tous nuls tels que i=1 αi Wi +βV = 0E . Il est facile de voir que β est nécessairement
non nul, sinon tous les αi seraient nuls. V est donc combinaison linéaire des Wi qui
forment un système générateur
vi) Si le système est lié, on peut supprimer un des vecteurs combinaison linéaire des autres
tout en gardant un système générateur. Cela imposerait que dim E soit inférieur à n

Un autre moyen de former une base est le suivant.

Théorème (Théorème de la base incomplète)


Soit E un espace vectoriel de base B = {V1 , ..., Vn }, et soit A = {W1 , ..., Wp } un système
libre. Alors il existe n − p vecteurs parmi les Vi tel que le système constitué de ces n − p
vecteurs Vi et des Wj forme une base de E .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 40/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4.2 Dimension d’un sous-espace vectoriel

Démonstration.
Par un raisonnement analogue au (vi) du paragraphe précédent, on voit que, si p < n,
il existe l’un des Vi tel que {W1 , ..., Wp , Vi } soit libre. (Si tous les systèmes sont liés,
on montrerait comme dans la conséquence vi) du paragraphe précédent que les Vi sont
combinaison linéaire des Wj , et donc que les Wj sont générateurs). En notant Wp+1 = Vi ,
on itère le procédé jusqu’à obtenir n vecteurs libres Wi . Ils forment alors une base. Cette
méthode est constructive.

Exemple
Dans R4 , on prend la base canonique {V1 , ..., V4 } et le système libre B = {W1 , W2 } avec
W1 = (1, 2, 0, 0)t et W2 = (−1, 1, 0, 0)t . Le compléter en une base de R4 . {W1 , W2 , V1 }
est lié ; {W1 , W2 , V2 } est lié ; {W1 , W2 , V3 } est libre ; {W1 , W2 , V3 , V4 } est libre. Ces
quatre vecteurs forment une base de R4 .

Proposition
Soit F un s.e.v d’un e.v de dimension finie. Alors F est de dimension finie et dim F <
dim E . Si dim F = dim E , alors F = E .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 41/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4.2 Dimension d’un sous-espace vectoriel

Démonstration.
Par un raisonnement analogue au (vi) du paragraphe précédent, on voit que, si p < n,
il existe l’un des Vi tel que {W1 , ..., Wp , Vi } soit libre. (Si tous les systèmes sont liés,
on montrerait comme dans la conséquence vi) du paragraphe précédent que les Vi sont
combinaison linéaire des Wj , et donc que les Wj sont générateurs). En notant Wp+1 = Vi ,
on itère le procédé jusqu’à obtenir n vecteurs libres Wi . Ils forment alors une base. Cette
méthode est constructive.

Exemple
Dans R4 , on prend la base canonique {V1 , ..., V4 } et le système libre B = {W1 , W2 } avec
W1 = (1, 2, 0, 0)t et W2 = (−1, 1, 0, 0)t . Le compléter en une base de R4 . {W1 , W2 , V1 }
est lié ; {W1 , W2 , V2 } est lié ; {W1 , W2 , V3 } est libre ; {W1 , W2 , V3 , V4 } est libre. Ces
quatre vecteurs forment une base de R4 .

Proposition
Soit F un s.e.v d’un e.v de dimension finie. Alors F est de dimension finie et dim F <
dim E . Si dim F = dim E , alors F = E .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 41/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4.2 Dimension d’un sous-espace vectoriel

Démonstration.
Par un raisonnement analogue au (vi) du paragraphe précédent, on voit que, si p < n,
il existe l’un des Vi tel que {W1 , ..., Wp , Vi } soit libre. (Si tous les systèmes sont liés,
on montrerait comme dans la conséquence vi) du paragraphe précédent que les Vi sont
combinaison linéaire des Wj , et donc que les Wj sont générateurs). En notant Wp+1 = Vi ,
on itère le procédé jusqu’à obtenir n vecteurs libres Wi . Ils forment alors une base. Cette
méthode est constructive.

Exemple
Dans R4 , on prend la base canonique {V1 , ..., V4 } et le système libre B = {W1 , W2 } avec
W1 = (1, 2, 0, 0)t et W2 = (−1, 1, 0, 0)t . Le compléter en une base de R4 . {W1 , W2 , V1 }
est lié ; {W1 , W2 , V2 } est lié ; {W1 , W2 , V3 } est libre ; {W1 , W2 , V3 , V4 } est libre. Ces
quatre vecteurs forment une base de R4 .

Proposition
Soit F un s.e.v d’un e.v de dimension finie. Alors F est de dimension finie et dim F <
dim E . Si dim F = dim E , alors F = E .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 41/ 65


Chapitre 2 : Les Espaces Vectoriels
2.4.3 Rang d’un système de vecteurs

Démonstration.
Parmi tous les systèmes libres de F , on en choisit un maximal. Le nombre de vecteurs de
ce système est nécessairement inférieur à dim E . Par ailleurs, étant libre et maximal dans
F , il forme une base de F . Si F est un s.e.v de E et si dim F = dim E , alors F = E , car
une base de F est un système libre possédant dim E vecteurs est aussi une base de E .

Un s.e.v de dimension 1 est appelé droite vectorielle. Un s.e.v de dimension 2 est appelé
plan vectoriel. Un s.e.v de dimension dim(E ) − 1 est appelé hyperplan vectoriel.
Définition
On appelle rang d’un système de vecteurs la dimension du s.e.v engendré par ce système.

Le rang d’un système est le nombre maximal de vecteurs linéairement indépendants que
l’on peut extraire du système. Un système libre maximal est une base du s.e.v.
Définition
Soit E un espace vectoriel de dimension finie ou non, F et G deux s.e.v de E . On appelle
somme de F et G l’ensemble défini par : F + G = {z | ∃ x ∈ F , ∃ y ∈ G, z = x + y }.
F + G est le s.e.v engendré par la partie F ∪ G. C’est le plus petit s.e.v contenant F et
G.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 42/ 65
Chapitre 2 : Les Espaces Vectoriels
2.4.3 Rang d’un système de vecteurs

Démonstration.
Parmi tous les systèmes libres de F , on en choisit un maximal. Le nombre de vecteurs de
ce système est nécessairement inférieur à dim E . Par ailleurs, étant libre et maximal dans
F , il forme une base de F . Si F est un s.e.v de E et si dim F = dim E , alors F = E , car
une base de F est un système libre possédant dim E vecteurs est aussi une base de E .

Un s.e.v de dimension 1 est appelé droite vectorielle. Un s.e.v de dimension 2 est appelé
plan vectoriel. Un s.e.v de dimension dim(E ) − 1 est appelé hyperplan vectoriel.
Définition
On appelle rang d’un système de vecteurs la dimension du s.e.v engendré par ce système.

Le rang d’un système est le nombre maximal de vecteurs linéairement indépendants que
l’on peut extraire du système. Un système libre maximal est une base du s.e.v.
Définition
Soit E un espace vectoriel de dimension finie ou non, F et G deux s.e.v de E . On appelle
somme de F et G l’ensemble défini par : F + G = {z | ∃ x ∈ F , ∃ y ∈ G, z = x + y }.
F + G est le s.e.v engendré par la partie F ∪ G. C’est le plus petit s.e.v contenant F et
G.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 42/ 65
Chapitre 2 : Les Espaces Vectoriels
2.4.3 Rang d’un système de vecteurs

Démonstration.
Parmi tous les systèmes libres de F , on en choisit un maximal. Le nombre de vecteurs de
ce système est nécessairement inférieur à dim E . Par ailleurs, étant libre et maximal dans
F , il forme une base de F . Si F est un s.e.v de E et si dim F = dim E , alors F = E , car
une base de F est un système libre possédant dim E vecteurs est aussi une base de E .

Un s.e.v de dimension 1 est appelé droite vectorielle. Un s.e.v de dimension 2 est appelé
plan vectoriel. Un s.e.v de dimension dim(E ) − 1 est appelé hyperplan vectoriel.
Définition
On appelle rang d’un système de vecteurs la dimension du s.e.v engendré par ce système.

Le rang d’un système est le nombre maximal de vecteurs linéairement indépendants que
l’on peut extraire du système. Un système libre maximal est une base du s.e.v.
Définition
Soit E un espace vectoriel de dimension finie ou non, F et G deux s.e.v de E . On appelle
somme de F et G l’ensemble défini par : F + G = {z | ∃ x ∈ F , ∃ y ∈ G, z = x + y }.
F + G est le s.e.v engendré par la partie F ∪ G. C’est le plus petit s.e.v contenant F et
G.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 42/ 65
Chapitre 2 : Les Espaces Vectoriels
2.4.3 Rang d’un système de vecteurs

Démonstration.
Parmi tous les systèmes libres de F , on en choisit un maximal. Le nombre de vecteurs de
ce système est nécessairement inférieur à dim E . Par ailleurs, étant libre et maximal dans
F , il forme une base de F . Si F est un s.e.v de E et si dim F = dim E , alors F = E , car
une base de F est un système libre possédant dim E vecteurs est aussi une base de E .

Un s.e.v de dimension 1 est appelé droite vectorielle. Un s.e.v de dimension 2 est appelé
plan vectoriel. Un s.e.v de dimension dim(E ) − 1 est appelé hyperplan vectoriel.
Définition
On appelle rang d’un système de vecteurs la dimension du s.e.v engendré par ce système.

Le rang d’un système est le nombre maximal de vecteurs linéairement indépendants que
l’on peut extraire du système. Un système libre maximal est une base du s.e.v.
Définition
Soit E un espace vectoriel de dimension finie ou non, F et G deux s.e.v de E . On appelle
somme de F et G l’ensemble défini par : F + G = {z | ∃ x ∈ F , ∃ y ∈ G, z = x + y }.
F + G est le s.e.v engendré par la partie F ∪ G. C’est le plus petit s.e.v contenant F et
G.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 42/ 65
Chapitre 2 : Les Espaces Vectoriels
2.4.3 Rang d’un système de vecteurs

Démonstration.
Parmi tous les systèmes libres de F , on en choisit un maximal. Le nombre de vecteurs de
ce système est nécessairement inférieur à dim E . Par ailleurs, étant libre et maximal dans
F , il forme une base de F . Si F est un s.e.v de E et si dim F = dim E , alors F = E , car
une base de F est un système libre possédant dim E vecteurs est aussi une base de E .

Un s.e.v de dimension 1 est appelé droite vectorielle. Un s.e.v de dimension 2 est appelé
plan vectoriel. Un s.e.v de dimension dim(E ) − 1 est appelé hyperplan vectoriel.
Définition
On appelle rang d’un système de vecteurs la dimension du s.e.v engendré par ce système.

Le rang d’un système est le nombre maximal de vecteurs linéairement indépendants que
l’on peut extraire du système. Un système libre maximal est une base du s.e.v.
Définition
Soit E un espace vectoriel de dimension finie ou non, F et G deux s.e.v de E . On appelle
somme de F et G l’ensemble défini par : F + G = {z | ∃ x ∈ F , ∃ y ∈ G, z = x + y }.
F + G est le s.e.v engendré par la partie F ∪ G. C’est le plus petit s.e.v contenant F et
G.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 42/ 65
Chapitre 2 : Les Espaces Vectoriels
2.5 Somme de Sous-Espaces Vectoriels

On s’intéresse à la question de savoir si z peut se décomposer de plusieurs façons sous la


forme x + y , avec x ∈ F et y ∈ G. Si la décomposition est unique, la somme est directe.
Exemple
E de dimension 3, de base {i, j, k}. F plan engendré par {i, j − i}. G plan engendré par
{k, j + k}. La somme n’est pas directe car : −i + j + k = −i + j + k = −i + j + |{z}k .
|{z} |{z} | {z }
∈F ∈G ∈F ∈G

Exemple
E de dimension 3, de base {i, j, k}. F plan engendré par {i, j + k}. G droite engendrée
1 1
par {j − k − i}. La somme est directe car : xi + yj + zk = (y + 2x − z)i + (y + z)(j +
2 2
1
k) + (y − z)(j − k − i), et il n’y a pas d’autre possibilité.
2

Proposition
Il y a équivalence entre les assertions suivantes :
i) F ∩ G = {0E } ;
ii) x + y = 0E , x ∈ F et y ∈ G, alors x = y = 0E
iii) Tout z de F + G s’écrit de manière unique x + y , avec x ∈ F , y ∈ G

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 43/ 65


Chapitre 2 : Les Espaces Vectoriels
2.5 Somme de Sous-Espaces Vectoriels

On s’intéresse à la question de savoir si z peut se décomposer de plusieurs façons sous la


forme x + y , avec x ∈ F et y ∈ G. Si la décomposition est unique, la somme est directe.
Exemple
E de dimension 3, de base {i, j, k}. F plan engendré par {i, j − i}. G plan engendré par
{k, j + k}. La somme n’est pas directe car : −i + j + k = −i + j + k = −i + j + |{z}k .
|{z} |{z} | {z }
∈F ∈G ∈F ∈G

Exemple
E de dimension 3, de base {i, j, k}. F plan engendré par {i, j + k}. G droite engendrée
1 1
par {j − k − i}. La somme est directe car : xi + yj + zk = (y + 2x − z)i + (y + z)(j +
2 2
1
k) + (y − z)(j − k − i), et il n’y a pas d’autre possibilité.
2

Proposition
Il y a équivalence entre les assertions suivantes :
i) F ∩ G = {0E } ;
ii) x + y = 0E , x ∈ F et y ∈ G, alors x = y = 0E
iii) Tout z de F + G s’écrit de manière unique x + y , avec x ∈ F , y ∈ G

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 43/ 65


Chapitre 2 : Les Espaces Vectoriels
2.5 Somme de Sous-Espaces Vectoriels

On s’intéresse à la question de savoir si z peut se décomposer de plusieurs façons sous la


forme x + y , avec x ∈ F et y ∈ G. Si la décomposition est unique, la somme est directe.
Exemple
E de dimension 3, de base {i, j, k}. F plan engendré par {i, j − i}. G plan engendré par
{k, j + k}. La somme n’est pas directe car : −i + j + k = −i + j + k = −i + j + |{z}k .
|{z} |{z} | {z }
∈F ∈G ∈F ∈G

Exemple
E de dimension 3, de base {i, j, k}. F plan engendré par {i, j + k}. G droite engendrée
1 1
par {j − k − i}. La somme est directe car : xi + yj + zk = (y + 2x − z)i + (y + z)(j +
2 2
1
k) + (y − z)(j − k − i), et il n’y a pas d’autre possibilité.
2

Proposition
Il y a équivalence entre les assertions suivantes :
i) F ∩ G = {0E } ;
ii) x + y = 0E , x ∈ F et y ∈ G, alors x = y = 0E
iii) Tout z de F + G s’écrit de manière unique x + y , avec x ∈ F , y ∈ G

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 43/ 65


Chapitre 2 : Les Espaces Vectoriels
2.5 Somme de Sous-Espaces Vectoriels

On s’intéresse à la question de savoir si z peut se décomposer de plusieurs façons sous la


forme x + y , avec x ∈ F et y ∈ G. Si la décomposition est unique, la somme est directe.
Exemple
E de dimension 3, de base {i, j, k}. F plan engendré par {i, j − i}. G plan engendré par
{k, j + k}. La somme n’est pas directe car : −i + j + k = −i + j + k = −i + j + |{z}k .
|{z} |{z} | {z }
∈F ∈G ∈F ∈G

Exemple
E de dimension 3, de base {i, j, k}. F plan engendré par {i, j + k}. G droite engendrée
1 1
par {j − k − i}. La somme est directe car : xi + yj + zk = (y + 2x − z)i + (y + z)(j +
2 2
1
k) + (y − z)(j − k − i), et il n’y a pas d’autre possibilité.
2

Proposition
Il y a équivalence entre les assertions suivantes :
i) F ∩ G = {0E } ;
ii) x + y = 0E , x ∈ F et y ∈ G, alors x = y = 0E
iii) Tout z de F + G s’écrit de manière unique x + y , avec x ∈ F , y ∈ G

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 43/ 65


Chapitre 2 : Les Espaces Vectoriels
2.5 Somme de Sous-Espaces Vectoriels

Démonstration.
i) =⇒ ii) Si x + y = 0, alors x = −y ∈ F et G, donc est nul. ii) =⇒ iii) Si z = x + y =
x ′ + y ′ avec x ∈ F , x ′ ∈ F , y ∈ G, y ′ ∈ G, alors : x − x ′ + y − y ′ = 0 avec x − x ′ ∈ F
et y − y ′ ∈ G, donc x − x ′ = y − y ′ = 0. iii) =⇒ i) Si z ∈ F ∩ G, alors il peut s’écrire
z = z + 0 = 0 + z. La décomposition étant unique, d’où z = 0.

Si une somme est directe, on note F ⊕ G au lieu de F + G. La propriété i) est la plus


couramment utilisée pour montrer que deux s.e.v sont en somme directe.

Définition
On appelle supplémentaire de F un s.e.v G tel que E = F ⊕ G. Cela signifie :
i) Tout z de E est somme d’un élément de F et d’un élément de G.
ii) Cette décomposition est unique
ou encore que :
i) E = F + G
ii) F ∩ G = {0E }

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 44/ 65


Chapitre 2 : Les Espaces Vectoriels
2.5 Somme de Sous-Espaces Vectoriels

Démonstration.
i) =⇒ ii) Si x + y = 0, alors x = −y ∈ F et G, donc est nul. ii) =⇒ iii) Si z = x + y =
x ′ + y ′ avec x ∈ F , x ′ ∈ F , y ∈ G, y ′ ∈ G, alors : x − x ′ + y − y ′ = 0 avec x − x ′ ∈ F
et y − y ′ ∈ G, donc x − x ′ = y − y ′ = 0. iii) =⇒ i) Si z ∈ F ∩ G, alors il peut s’écrire
z = z + 0 = 0 + z. La décomposition étant unique, d’où z = 0.

Si une somme est directe, on note F ⊕ G au lieu de F + G. La propriété i) est la plus


couramment utilisée pour montrer que deux s.e.v sont en somme directe.

Définition
On appelle supplémentaire de F un s.e.v G tel que E = F ⊕ G. Cela signifie :
i) Tout z de E est somme d’un élément de F et d’un élément de G.
ii) Cette décomposition est unique
ou encore que :
i) E = F + G
ii) F ∩ G = {0E }

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 44/ 65


Chapitre 2 : Les Espaces Vectoriels
2.5 Somme de Sous-Espaces Vectoriels

Démonstration.
i) =⇒ ii) Si x + y = 0, alors x = −y ∈ F et G, donc est nul. ii) =⇒ iii) Si z = x + y =
x ′ + y ′ avec x ∈ F , x ′ ∈ F , y ∈ G, y ′ ∈ G, alors : x − x ′ + y − y ′ = 0 avec x − x ′ ∈ F
et y − y ′ ∈ G, donc x − x ′ = y − y ′ = 0. iii) =⇒ i) Si z ∈ F ∩ G, alors il peut s’écrire
z = z + 0 = 0 + z. La décomposition étant unique, d’où z = 0.

Si une somme est directe, on note F ⊕ G au lieu de F + G. La propriété i) est la plus


couramment utilisée pour montrer que deux s.e.v sont en somme directe.

Définition
On appelle supplémentaire de F un s.e.v G tel que E = F ⊕ G. Cela signifie :
i) Tout z de E est somme d’un élément de F et d’un élément de G.
ii) Cette décomposition est unique
ou encore que :
i) E = F + G
ii) F ∩ G = {0E }

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 44/ 65


Chapitre 2 : Les Espaces Vectoriels
2.6 Supplémentaires

Exercice
Soient E = R3 , F = {(x , y , z) ∈ E / −9x − 3y + 5z = 0} et G = Vect((1, 1, 1)). Montrer
que les deux s.e.v F et G sont supplémentaires.

Solution
Soit u = (x , y , z) ∈ E . Supposons qu’il existe v ∈ F et w ∈ G tels que u = v + w .
 v = (a, b, c) avec −9a − 3b + 5c = 0, w = (α, α, α) avec α ∈ R et u = v + w ⇔
Alors
 x =a+α
1
x = b + α . Donc, −9x − 3y + 5z = −7α ↔ α = (9x + 3y − 5z) et par suite :
7
x =c +α

 1
 a = x − α = 7 (−2x − 3y + 5z)

1
b = y − α = (−9x + 4y + 5z) . Ainsi, v et w sont définis de manière unique par :
7
 1
c = z − α = (−9x − 3y + 12z)

7
1
(
v = (−2x − 3y + 5z, −9x + 4y + 5z, −9x − 3y + 12z)
7
1
w = (9x + 3y − 5z, 9x + 3y − 5z, 9x + 3y − 5z)
7

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 45/ 65


Chapitre 2 : Les Espaces Vectoriels
2.6 Supplémentaires

Exercice
Soient E = R3 , F = {(x , y , z) ∈ E / −9x − 3y + 5z = 0} et G = Vect((1, 1, 1)). Montrer
que les deux s.e.v F et G sont supplémentaires.

Solution
Soit u = (x , y , z) ∈ E . Supposons qu’il existe v ∈ F et w ∈ G tels que u = v + w .
 v = (a, b, c) avec −9a − 3b + 5c = 0, w = (α, α, α) avec α ∈ R et u = v + w ⇔
Alors
 x =a+α
1
x = b + α . Donc, −9x − 3y + 5z = −7α ↔ α = (9x + 3y − 5z) et par suite :
7
x =c +α

 1
 a = x − α = 7 (−2x − 3y + 5z)

1
b = y − α = (−9x + 4y + 5z) . Ainsi, v et w sont définis de manière unique par :
7
 1
c = z − α = (−9x − 3y + 12z)

7
1
(
v = (−2x − 3y + 5z, −9x + 4y + 5z, −9x − 3y + 12z)
7
1
w = (9x + 3y − 5z, 9x + 3y − 5z, 9x + 3y − 5z)
7

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 45/ 65


Chapitre 2 : Les Espaces Vectoriels
2.6 Supplémentaires

suite de la solution
Réciproquement, soit u = (x , y , z) ∈ E et les deux vecteurs :
1
(
v = (−2x − 3y + 5z, −9x + 4y + 5z, −9x − 3y + 12z)
7
1
w = (9x + 3y − 5z, 9x + 3y − 5z, 9x + 3y − 5z)
7
On vérifie facilement que v ∈ F , w ∈ G et u = v + w . En conclusion, on a bien
E = F ⊕ G et F et G sont supplémentaires.

Proposition
Si E est de dimension finie et si F est un s.e.v de E , alors il existe un supplémentaire G
de F . Tous les supplémentaires de F ont pour dimension dimE − dimF .

Démonstration.
Si {V1 , ..., Vn } est une base de E et {W1 , ..., Wp } une base de F , le théorème de la base
incomplète nous permet de compléter la base de F par n − p vecteurs pour former une
base de E . Ces n − p vecteurs engendrent un s.e.v G qui sera le supplémentaire de F .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 46/ 65


Chapitre 2 : Les Espaces Vectoriels
2.6 Supplémentaires

suite de la solution
Réciproquement, soit u = (x , y , z) ∈ E et les deux vecteurs :
1
(
v = (−2x − 3y + 5z, −9x + 4y + 5z, −9x − 3y + 12z)
7
1
w = (9x + 3y − 5z, 9x + 3y − 5z, 9x + 3y − 5z)
7
On vérifie facilement que v ∈ F , w ∈ G et u = v + w . En conclusion, on a bien
E = F ⊕ G et F et G sont supplémentaires.

Proposition
Si E est de dimension finie et si F est un s.e.v de E , alors il existe un supplémentaire G
de F . Tous les supplémentaires de F ont pour dimension dimE − dimF .

Démonstration.
Si {V1 , ..., Vn } est une base de E et {W1 , ..., Wp } une base de F , le théorème de la base
incomplète nous permet de compléter la base de F par n − p vecteurs pour former une
base de E . Ces n − p vecteurs engendrent un s.e.v G qui sera le supplémentaire de F .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 46/ 65


Chapitre 2 : Les Espaces Vectoriels
2.6 Supplémentaires

suite de la solution
Réciproquement, soit u = (x , y , z) ∈ E et les deux vecteurs :
1
(
v = (−2x − 3y + 5z, −9x + 4y + 5z, −9x − 3y + 12z)
7
1
w = (9x + 3y − 5z, 9x + 3y − 5z, 9x + 3y − 5z)
7
On vérifie facilement que v ∈ F , w ∈ G et u = v + w . En conclusion, on a bien
E = F ⊕ G et F et G sont supplémentaires.

Proposition
Si E est de dimension finie et si F est un s.e.v de E , alors il existe un supplémentaire G
de F . Tous les supplémentaires de F ont pour dimension dimE − dimF .

Démonstration.
Si {V1 , ..., Vn } est une base de E et {W1 , ..., Wp } une base de F , le théorème de la base
incomplète nous permet de compléter la base de F par n − p vecteurs pour former une
base de E . Ces n − p vecteurs engendrent un s.e.v G qui sera le supplémentaire de F .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 46/ 65


Chapitre 2 : Les Espaces Vectoriels
2.6 Supplémentaires

Proposition
Soit F et G deux s.e.v de dimension finie d’un espace vectoriel E . Alors F + G est de
dimension finie et : dim(F + G) = dim F + dim G − dim(F ∩ G).

Démonstration.
On notera l’analogie avec la formule Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B).
On choisit la famille {u1 , ..., up } comme base de F ∩ G, que l’on complète en une base
{u1 , ..., up , v1 , ..., vq } de F et {u1 , ..., up , w1 , ..., wr } de G. On vérifiera alors que la famille
{u1 , ..., up , v1 , ..., vq , w1 , ..., wr } est une base de F + G. En particulier :
(i) dim(F ⊕ G) = dim F + dim G ;
(ii) Si F et G sont en somme directe, une base de F ⊕ G est la réunion d’une base de
F et une base de G ;
(iii) Inversement, si on scinde une base de E en deux systèmes disjoints, ces deux
systèmes engendrent deux s.e.v supplémentaires.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 47/ 65


Chapitre 2 : Les Espaces Vectoriels
2.6 Supplémentaires

Proposition
Soit F et G deux s.e.v de dimension finie d’un espace vectoriel E . Alors F + G est de
dimension finie et : dim(F + G) = dim F + dim G − dim(F ∩ G).

Démonstration.
On notera l’analogie avec la formule Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B).
On choisit la famille {u1 , ..., up } comme base de F ∩ G, que l’on complète en une base
{u1 , ..., up , v1 , ..., vq } de F et {u1 , ..., up , w1 , ..., wr } de G. On vérifiera alors que la famille
{u1 , ..., up , v1 , ..., vq , w1 , ..., wr } est une base de F + G. En particulier :
(i) dim(F ⊕ G) = dim F + dim G ;
(ii) Si F et G sont en somme directe, une base de F ⊕ G est la réunion d’une base de
F et une base de G ;
(iii) Inversement, si on scinde une base de E en deux systèmes disjoints, ces deux
systèmes engendrent deux s.e.v supplémentaires.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 47/ 65


Chapitre 2 : Les Espaces Vectoriels
2.6 Somme de plusieurs sous-espaces vectoriels

Si l’on a k ≥ 2 s.e.v E1 , ..., Ek d’un e.v E , la somme E1 + ... + Ek est le s.e.v engendré
par E1 ∪ E2 ∪ ... ∪ Ek . C’est l’ensemble des vecteurs x qui s’écrivent sous la forme :
Xk
xi où xi ∈ Ei ∀ i = 1, 2, ..., k (1)
i=1

Si la décomposition (1) est unique, on dit que la somme est directe et on la note E1 ⊕ ... ⊕
Ek . On désigne par E un espace vectoriel de dimension n sur un corps K. Jusqu’à présent,

une base de E était un ensemble de n vecteurs linéairement indépendants. Maintenant,


nous supposerons que l’on a une énumération de cette base. Soit B = {e1 , ..., en } une base
Pn
de E ; on sait que x ∈ E s’écrit de façon unique sous la forme α e . Les scalaires
i=1 i i
α1 , ..., αn sont les composantes du vecteur x dans la base B. On associe
 au
 vecteur x la
α1
 . 
matrice X obtenue en rangeant ses composantes en colonne : X =  .. . On dit que
αn
la matrice colonne X est associée au vecteur x dans la base B.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 48/ 65


Chapitre 2 : Les Espaces Vectoriels
2.6 Somme de plusieurs sous-espaces vectoriels

Si l’on a k ≥ 2 s.e.v E1 , ..., Ek d’un e.v E , la somme E1 + ... + Ek est le s.e.v engendré
par E1 ∪ E2 ∪ ... ∪ Ek . C’est l’ensemble des vecteurs x qui s’écrivent sous la forme :
Xk
xi où xi ∈ Ei ∀ i = 1, 2, ..., k (1)
i=1

Si la décomposition (1) est unique, on dit que la somme est directe et on la note E1 ⊕ ... ⊕
Ek . On désigne par E un espace vectoriel de dimension n sur un corps K. Jusqu’à présent,

une base de E était un ensemble de n vecteurs linéairement indépendants. Maintenant,


nous supposerons que l’on a une énumération de cette base. Soit B = {e1 , ..., en } une base
Pn
de E ; on sait que x ∈ E s’écrit de façon unique sous la forme α e . Les scalaires
i=1 i i
α1 , ..., αn sont les composantes du vecteur x dans la base B. On associe
 au
 vecteur x la
α1
 . 
matrice X obtenue en rangeant ses composantes en colonne : X =  .. . On dit que
αn
la matrice colonne X est associée au vecteur x dans la base B.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 48/ 65


Chapitre 2 : Les Espaces Vectoriels
2.6 Changement de bases

Considérons maintenant une nouvelle base B′ = (e1′ , ..., en′ ) de l’e.v E . Chacun des vecteurs
Pn (j)
ej′ , j = 1, 2, ..., n, se décompose sur l’ancienne base B comme suit : ej′ = i=1 αi ei .
(j)
La matrice P, carrée d’ordre n, dont les coefficients sont les scalaires αi est appelée
matrice de passage de l’ancienne base B à la nouvelle base B′ . On l’appelle aussi matrice
de changement de base. Sa j ième colonne est la matrice associée dans l’ancienne base
au j ième vecteur ej′ de la nouvelle base. Si x est un vecteur de E , il lui est associé une
matrice X dans l’ancienne base et une matrice X ′ dans la nouvelle. On a alors :
Xn Xn Xn
(j)
 Xn Xn (j)

x= αj′ ej′ = αj′ αi ei = αi αj′ ei
j=1 j=1 i=1 i=1 j=1

Pn (j)
Cela signifie que l’on a, pour tout i, αi = α αj′ . Autrement dit, on a : X =
j=1 i
PX . On remarque que ce sont les composantes dans l’ancienne base qui se calculent au

moyen des composantes dans la nouvelle base et de la matrice de passage de l’ancienne


base à la nouvelle. Désignons par Q la matrice de passage de B′ à B. En vertu de la
formule précédente, pour tout X ,on a : X ′ = QX , d’où, en reportant dans cette formule,
X = PQX . Cette dernière relation est vraie quelle que soit la matrice colonne X , on
a PQ = In , où In désigne la matrice unité d’ordre n. De la même manière, on obtient
QP = In . Autrement dit, les matrices P et Q sont inversibles et Q = P −1 .
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 49/ 65
Chapitre 2 : Les Espaces Vectoriels
2.6 Changement de bases

Considérons maintenant une nouvelle base B′ = (e1′ , ..., en′ ) de l’e.v E . Chacun des vecteurs
Pn (j)
ej′ , j = 1, 2, ..., n, se décompose sur l’ancienne base B comme suit : ej′ = i=1 αi ei .
(j)
La matrice P, carrée d’ordre n, dont les coefficients sont les scalaires αi est appelée
matrice de passage de l’ancienne base B à la nouvelle base B′ . On l’appelle aussi matrice
de changement de base. Sa j ième colonne est la matrice associée dans l’ancienne base
au j ième vecteur ej′ de la nouvelle base. Si x est un vecteur de E , il lui est associé une
matrice X dans l’ancienne base et une matrice X ′ dans la nouvelle. On a alors :
Xn Xn Xn
(j)
 Xn Xn (j)

x= αj′ ej′ = αj′ αi ei = αi αj′ ei
j=1 j=1 i=1 i=1 j=1

Pn (j)
Cela signifie que l’on a, pour tout i, αi = α αj′ . Autrement dit, on a : X =
j=1 i
PX . On remarque que ce sont les composantes dans l’ancienne base qui se calculent au

moyen des composantes dans la nouvelle base et de la matrice de passage de l’ancienne


base à la nouvelle. Désignons par Q la matrice de passage de B′ à B. En vertu de la
formule précédente, pour tout X ,on a : X ′ = QX , d’où, en reportant dans cette formule,
X = PQX . Cette dernière relation est vraie quelle que soit la matrice colonne X , on
a PQ = In , où In désigne la matrice unité d’ordre n. De la même manière, on obtient
QP = In . Autrement dit, les matrices P et Q sont inversibles et Q = P −1 .
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 49/ 65
Chapitre 3 : Les Applications Linéaires

Chapitre 3 : Les Applications Linéaires

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 50/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Généralités

Dans ce troisième chapitre, K désigne un corps commutatif. En pratique, K = R ou C.

Définition (application linéaire)


Soient E et F deux K-e.v. L’application u(.) : E → F est dite application linéaire ou
morphisme d’e.v ssi :
i) ∀ x , y ∈ E , u(x + y ) = u(x ) + u(y ) ii) ∀ x ∈ E , ∀ λ ∈ K, u(λx ) = λu(x )
Xk Xk
On vérifie facilement que l’on a u( λi xi ) = λi u(xi ), pour λ1 , . . . , λk des
i=1 i=1
scalaires de K et x1 , . . . , xk des vecteurs de E . Le terme opérateur linéaire est synonyme
d’application linéaire. L’ensemble des applications linéaires de E dans F est noté L(E , F ).

Définition (endomorphisme)
Soit E un K-e.v. L’application u(.) : E → E est un endomorphisme de E ssi u(.) est une
application linéaire.

On note L(E ) l’ensemble des endomorphismes de E .


Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 51/ 65
Chapitre 3 : Les Applications Linéaires
3.1 Généralités

Dans ce troisième chapitre, K désigne un corps commutatif. En pratique, K = R ou C.

Définition (application linéaire)


Soient E et F deux K-e.v. L’application u(.) : E → F est dite application linéaire ou
morphisme d’e.v ssi :
i) ∀ x , y ∈ E , u(x + y ) = u(x ) + u(y ) ii) ∀ x ∈ E , ∀ λ ∈ K, u(λx ) = λu(x )
Xk Xk
On vérifie facilement que l’on a u( λi xi ) = λi u(xi ), pour λ1 , . . . , λk des
i=1 i=1
scalaires de K et x1 , . . . , xk des vecteurs de E . Le terme opérateur linéaire est synonyme
d’application linéaire. L’ensemble des applications linéaires de E dans F est noté L(E , F ).

Définition (endomorphisme)
Soit E un K-e.v. L’application u(.) : E → E est un endomorphisme de E ssi u(.) est une
application linéaire.

On note L(E ) l’ensemble des endomorphismes de E .


Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 51/ 65
Chapitre 3 : Les Applications Linéaires
3.1 Généralités

Dans ce troisième chapitre, K désigne un corps commutatif. En pratique, K = R ou C.

Définition (application linéaire)


Soient E et F deux K-e.v. L’application u(.) : E → F est dite application linéaire ou
morphisme d’e.v ssi :
i) ∀ x , y ∈ E , u(x + y ) = u(x ) + u(y ) ii) ∀ x ∈ E , ∀ λ ∈ K, u(λx ) = λu(x )
Xk Xk
On vérifie facilement que l’on a u( λi xi ) = λi u(xi ), pour λ1 , . . . , λk des
i=1 i=1
scalaires de K et x1 , . . . , xk des vecteurs de E . Le terme opérateur linéaire est synonyme
d’application linéaire. L’ensemble des applications linéaires de E dans F est noté L(E , F ).

Définition (endomorphisme)
Soit E un K-e.v. L’application u(.) : E → E est un endomorphisme de E ssi u(.) est une
application linéaire.

On note L(E ) l’ensemble des endomorphismes de E .


Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 51/ 65
Chapitre 3 : Les Applications Linéaires
3.1 Généralités

Dans ce troisième chapitre, K désigne un corps commutatif. En pratique, K = R ou C.

Définition (application linéaire)


Soient E et F deux K-e.v. L’application u(.) : E → F est dite application linéaire ou
morphisme d’e.v ssi :
i) ∀ x , y ∈ E , u(x + y ) = u(x ) + u(y ) ii) ∀ x ∈ E , ∀ λ ∈ K, u(λx ) = λu(x )
Xk Xk
On vérifie facilement que l’on a u( λi xi ) = λi u(xi ), pour λ1 , . . . , λk des
i=1 i=1
scalaires de K et x1 , . . . , xk des vecteurs de E . Le terme opérateur linéaire est synonyme
d’application linéaire. L’ensemble des applications linéaires de E dans F est noté L(E , F ).

Définition (endomorphisme)
Soit E un K-e.v. L’application u(.) : E → E est un endomorphisme de E ssi u(.) est une
application linéaire.

On note L(E ) l’ensemble des endomorphismes de E .


Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 51/ 65
Chapitre 3 : Les Applications Linéaires
3.1 Généralités

Dans ce troisième chapitre, K désigne un corps commutatif. En pratique, K = R ou C.

Définition (application linéaire)


Soient E et F deux K-e.v. L’application u(.) : E → F est dite application linéaire ou
morphisme d’e.v ssi :
i) ∀ x , y ∈ E , u(x + y ) = u(x ) + u(y ) ii) ∀ x ∈ E , ∀ λ ∈ K, u(λx ) = λu(x )
Xk Xk
On vérifie facilement que l’on a u( λi xi ) = λi u(xi ), pour λ1 , . . . , λk des
i=1 i=1
scalaires de K et x1 , . . . , xk des vecteurs de E . Le terme opérateur linéaire est synonyme
d’application linéaire. L’ensemble des applications linéaires de E dans F est noté L(E , F ).

Définition (endomorphisme)
Soit E un K-e.v. L’application u(.) : E → E est un endomorphisme de E ssi u(.) est une
application linéaire.

On note L(E ) l’ensemble des endomorphismes de E .


Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 51/ 65
Chapitre 3 : Les Applications Linéaires
3.1 Généralités

Définition
Soient E et F deux K-e.v, et l’application u(.) : E → F
i) u(.) est dite un isomorphisme de E dans F ssi u(.) est linéaire et bijective
ii) u(.) est dite automorphisme de E ssi u(.) est linéaire et bijective

Définition
Soit E un K-e.v. On appelle forme linéaire sur E toute application linéaire u(.) : E → K.
On note E ∗ l’ensemble des formes linéaires sur E , appelé le dual de E .

Exemple
(1) L’application nulle e0(.) d’un e.v E définie par e0(x ) = 0E , ∀ x ∈ E , est bien un
endomorphisme de E .
(2) L’application dérivation Der (.) : D(I, R) → (I, R) définie par : Der (f ) = f ′ , où I est
un intervalle de R est bien une application linéaire de D(I, R) dans (I, R).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 52/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Généralités

Définition
Soient E et F deux K-e.v, et l’application u(.) : E → F
i) u(.) est dite un isomorphisme de E dans F ssi u(.) est linéaire et bijective
ii) u(.) est dite automorphisme de E ssi u(.) est linéaire et bijective

Définition
Soit E un K-e.v. On appelle forme linéaire sur E toute application linéaire u(.) : E → K.
On note E ∗ l’ensemble des formes linéaires sur E , appelé le dual de E .

Exemple
(1) L’application nulle e0(.) d’un e.v E définie par e0(x ) = 0E , ∀ x ∈ E , est bien un
endomorphisme de E .
(2) L’application dérivation Der (.) : D(I, R) → (I, R) définie par : Der (f ) = f ′ , où I est
un intervalle de R est bien une application linéaire de D(I, R) dans (I, R).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 52/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Généralités

Définition
Soient E et F deux K-e.v, et l’application u(.) : E → F
i) u(.) est dite un isomorphisme de E dans F ssi u(.) est linéaire et bijective
ii) u(.) est dite automorphisme de E ssi u(.) est linéaire et bijective

Définition
Soit E un K-e.v. On appelle forme linéaire sur E toute application linéaire u(.) : E → K.
On note E ∗ l’ensemble des formes linéaires sur E , appelé le dual de E .

Exemple
(1) L’application nulle e0(.) d’un e.v E définie par e0(x ) = 0E , ∀ x ∈ E , est bien un
endomorphisme de E .
(2) L’application dérivation Der (.) : D(I, R) → (I, R) définie par : Der (f ) = f ′ , où I est
un intervalle de R est bien une application linéaire de D(I, R) dans (I, R).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 52/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Généralités

Exercice
Montrer que l’application qui associe à tout polynôme P ∈ R[X ] le polynôme P(X 2 )
est un endomorphisme de R[X ]. De même, montrer que l’application qui associe à tout
polynôme P ∈ R[X ] le polynôme P(X + 1) est un automorphisme de R[X ]. Donner, en
particulier, son application réciproque.

Proposition
Soit u ∈ L(E , F ), on a :
i) u(0E ) = 0F
ii) ∀ x ∈ E , u(−x ) = −u(x )
iii) Pour tout (x , y ) ∈ E 2 , u(x − y ) = u(x ) − u(y ).

Proposition
(i) Soient u et v deux éléments de L(E , F ), λ et µ deux scalaires, alors l’application
λu + µv est une application linéaire de E dans F ;
(ii) L(E , F ) et L(E ) sont des espaces vectoriels.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 53/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Généralités

Exercice
Montrer que l’application qui associe à tout polynôme P ∈ R[X ] le polynôme P(X 2 )
est un endomorphisme de R[X ]. De même, montrer que l’application qui associe à tout
polynôme P ∈ R[X ] le polynôme P(X + 1) est un automorphisme de R[X ]. Donner, en
particulier, son application réciproque.

Proposition
Soit u ∈ L(E , F ), on a :
i) u(0E ) = 0F
ii) ∀ x ∈ E , u(−x ) = −u(x )
iii) Pour tout (x , y ) ∈ E 2 , u(x − y ) = u(x ) − u(y ).

Proposition
(i) Soient u et v deux éléments de L(E , F ), λ et µ deux scalaires, alors l’application
λu + µv est une application linéaire de E dans F ;
(ii) L(E , F ) et L(E ) sont des espaces vectoriels.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 53/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Généralités

Exercice
Montrer que l’application qui associe à tout polynôme P ∈ R[X ] le polynôme P(X 2 )
est un endomorphisme de R[X ]. De même, montrer que l’application qui associe à tout
polynôme P ∈ R[X ] le polynôme P(X + 1) est un automorphisme de R[X ]. Donner, en
particulier, son application réciproque.

Proposition
Soit u ∈ L(E , F ), on a :
i) u(0E ) = 0F
ii) ∀ x ∈ E , u(−x ) = −u(x )
iii) Pour tout (x , y ) ∈ E 2 , u(x − y ) = u(x ) − u(y ).

Proposition
(i) Soient u et v deux éléments de L(E , F ), λ et µ deux scalaires, alors l’application
λu + µv est une application linéaire de E dans F ;
(ii) L(E , F ) et L(E ) sont des espaces vectoriels.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 53/ 65


Chapitre 3 : Les Applications Linéaires
3.2 Opérations sur les applications linéaires

Proposition
Soient E , F , G trois K-e.v, u ∈ L(E , F ) et v ∈ L(F , G). Alors l’application composée
v ◦ u ∈ L(E , G).

La composée v ◦ u sera simplement notée vu, et si u ∈ L(E ), u ◦ u est noté u 2 .

Démonstration.
Si x et y sont deux vecteurs de E et λ et µ deux scalaires, on a : v ◦ u(λx + µy ) =
v (u(λx + µy )) = v (λu(x ) + µu(y )) = λv (u(x )) + µv (u(x )) = λv ◦ u(x ) + µv ◦ u(x )

Proposition
Soit E , F et G trois K-espaces vectoriels. Alors :
i) Si u ∈ L(E , F ), v ∈ L(E , F ) et w ∈ L(F , G), on a : w (u + v ) = wu + wv
ii) Si u ∈ L(E , F ), v ∈ L(F , G) et w ∈ L(F , G), on a : (v + w )u = vu + wu.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 54/ 65


Chapitre 3 : Les Applications Linéaires
3.2 Opérations sur les applications linéaires

Proposition
Soient E , F , G trois K-e.v, u ∈ L(E , F ) et v ∈ L(F , G). Alors l’application composée
v ◦ u ∈ L(E , G).

La composée v ◦ u sera simplement notée vu, et si u ∈ L(E ), u ◦ u est noté u 2 .

Démonstration.
Si x et y sont deux vecteurs de E et λ et µ deux scalaires, on a : v ◦ u(λx + µy ) =
v (u(λx + µy )) = v (λu(x ) + µu(y )) = λv (u(x )) + µv (u(x )) = λv ◦ u(x ) + µv ◦ u(x )

Proposition
Soit E , F et G trois K-espaces vectoriels. Alors :
i) Si u ∈ L(E , F ), v ∈ L(E , F ) et w ∈ L(F , G), on a : w (u + v ) = wu + wv
ii) Si u ∈ L(E , F ), v ∈ L(F , G) et w ∈ L(F , G), on a : (v + w )u = vu + wu.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 54/ 65


Chapitre 3 : Les Applications Linéaires
3.2 Opérations sur les applications linéaires

Proposition
Soient E , F , G trois K-e.v, u ∈ L(E , F ) et v ∈ L(F , G). Alors l’application composée
v ◦ u ∈ L(E , G).

La composée v ◦ u sera simplement notée vu, et si u ∈ L(E ), u ◦ u est noté u 2 .

Démonstration.
Si x et y sont deux vecteurs de E et λ et µ deux scalaires, on a : v ◦ u(λx + µy ) =
v (u(λx + µy )) = v (λu(x ) + µu(y )) = λv (u(x )) + µv (u(x )) = λv ◦ u(x ) + µv ◦ u(x )

Proposition
Soit E , F et G trois K-espaces vectoriels. Alors :
i) Si u ∈ L(E , F ), v ∈ L(E , F ) et w ∈ L(F , G), on a : w (u + v ) = wu + wv
ii) Si u ∈ L(E , F ), v ∈ L(F , G) et w ∈ L(F , G), on a : (v + w )u = vu + wu.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 54/ 65


Chapitre 3 : Les Applications Linéaires
3.2 Opérations sur les applications linéaires

Proposition
Soient E , F , G trois K-e.v, u ∈ L(E , F ) et v ∈ L(F , G). Alors l’application composée
v ◦ u ∈ L(E , G).

La composée v ◦ u sera simplement notée vu, et si u ∈ L(E ), u ◦ u est noté u 2 .

Démonstration.
Si x et y sont deux vecteurs de E et λ et µ deux scalaires, on a : v ◦ u(λx + µy ) =
v (u(λx + µy )) = v (λu(x ) + µu(y )) = λv (u(x )) + µv (u(x )) = λv ◦ u(x ) + µv ◦ u(x )

Proposition
Soit E , F et G trois K-espaces vectoriels. Alors :
i) Si u ∈ L(E , F ), v ∈ L(E , F ) et w ∈ L(F , G), on a : w (u + v ) = wu + wv
ii) Si u ∈ L(E , F ), v ∈ L(F , G) et w ∈ L(F , G), on a : (v + w )u = vu + wu.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 54/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Image

Proposition
Soit u ∈ L(E , F ). Alors :
i) l’image par u de tout s.e.v V de E est un s.e.v de F ;
ii) si A est une partie de E , alors Vect(u(A)) = u(Vect(A)).

Démonstration.
La démonstration de i) est laissée en exercice au lecteur. Démontrons ii).
Puisque A ⊂ Vect(A), alors u(A) ⊂ u(Vect(A)). Or u(Vect(A)) est un s.e.v de F , donc
Vect(u(A)) ⊂ u(Vect(A)). Soit maintenant x ∈ u(Vect(A)). Cela signifie que l’on a
Pk
x = u( λj aj ) où les λj sont des scalaires et les aj des éléments de A. On a alors
Pk j=1
x= j=1
λj u(aj ). C’est dire que x ∈ Vect(u(A)).

Définition
L’image de u ∈ L(E , F ) est le s.e.v u(E ) de l’e.v F . Cette image est notée Im(u).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 55/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Image

Proposition
Soit u ∈ L(E , F ). Alors :
i) l’image par u de tout s.e.v V de E est un s.e.v de F ;
ii) si A est une partie de E , alors Vect(u(A)) = u(Vect(A)).

Démonstration.
La démonstration de i) est laissée en exercice au lecteur. Démontrons ii).
Puisque A ⊂ Vect(A), alors u(A) ⊂ u(Vect(A)). Or u(Vect(A)) est un s.e.v de F , donc
Vect(u(A)) ⊂ u(Vect(A)). Soit maintenant x ∈ u(Vect(A)). Cela signifie que l’on a
Pk
x = u( λj aj ) où les λj sont des scalaires et les aj des éléments de A. On a alors
Pk j=1
x= j=1
λj u(aj ). C’est dire que x ∈ Vect(u(A)).

Définition
L’image de u ∈ L(E , F ) est le s.e.v u(E ) de l’e.v F . Cette image est notée Im(u).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 55/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Image

Proposition
Soit u ∈ L(E , F ). Alors :
i) l’image par u de tout s.e.v V de E est un s.e.v de F ;
ii) si A est une partie de E , alors Vect(u(A)) = u(Vect(A)).

Démonstration.
La démonstration de i) est laissée en exercice au lecteur. Démontrons ii).
Puisque A ⊂ Vect(A), alors u(A) ⊂ u(Vect(A)). Or u(Vect(A)) est un s.e.v de F , donc
Vect(u(A)) ⊂ u(Vect(A)). Soit maintenant x ∈ u(Vect(A)). Cela signifie que l’on a
Pk
x = u( λj aj ) où les λj sont des scalaires et les aj des éléments de A. On a alors
Pk j=1
x= j=1
λj u(aj ). C’est dire que x ∈ Vect(u(A)).

Définition
L’image de u ∈ L(E , F ) est le s.e.v u(E ) de l’e.v F . Cette image est notée Im(u).

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 55/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Image

Si Im(u) est de dimension finie, sa dimension est appelée le rang de u et est notée rg(u).
La proposition précédente montre que si G est un générateur de E , alors u(G) est un
générateur de Im(u). On en déduit que, si E est de dimension finie, le rang de u est fini
et rg(u) ≤ dim E , soit le rang est inférieur ou égal à la dimension de l’e.v de départ.

Exemple
Soit f (.) : R3 → R la forme linéaire définie par : f (x1 , x2 , x3 ) = −x1 + 2x2 + 5x3 . Par
définition, on sait que Im(f ) ⊂ F = R. Plus précisément, montrons que Im(f ) = R.
Soit y ∈ R, on cherche x = (x1 , x2 , x3 ) ∈ R3 tel que f (x ) = y . Mais f (x ) = y ⇔
−x1 + 2x2 + 5x3 = y . Ainsi, le triplet (−y , 0, 0) convient. D’où, Im(f ) = R.

Proposition
Soit u ∈ L(E , F ). Si W est un s.e.v de F , alors l’image réciproque de W par u, notée
u −1 (W ), est un s.e.v de E .

Démonstration.
La notation u −1 ne signifie pas que u admet une application réciproque. On note
u −1 (W ) = {x ∈ E /u(x ) ∈ W }. La démonstration est laissée en exercice.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 56/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Image

Si Im(u) est de dimension finie, sa dimension est appelée le rang de u et est notée rg(u).
La proposition précédente montre que si G est un générateur de E , alors u(G) est un
générateur de Im(u). On en déduit que, si E est de dimension finie, le rang de u est fini
et rg(u) ≤ dim E , soit le rang est inférieur ou égal à la dimension de l’e.v de départ.

Exemple
Soit f (.) : R3 → R la forme linéaire définie par : f (x1 , x2 , x3 ) = −x1 + 2x2 + 5x3 . Par
définition, on sait que Im(f ) ⊂ F = R. Plus précisément, montrons que Im(f ) = R.
Soit y ∈ R, on cherche x = (x1 , x2 , x3 ) ∈ R3 tel que f (x ) = y . Mais f (x ) = y ⇔
−x1 + 2x2 + 5x3 = y . Ainsi, le triplet (−y , 0, 0) convient. D’où, Im(f ) = R.

Proposition
Soit u ∈ L(E , F ). Si W est un s.e.v de F , alors l’image réciproque de W par u, notée
u −1 (W ), est un s.e.v de E .

Démonstration.
La notation u −1 ne signifie pas que u admet une application réciproque. On note
u −1 (W ) = {x ∈ E /u(x ) ∈ W }. La démonstration est laissée en exercice.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 56/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Image

Si Im(u) est de dimension finie, sa dimension est appelée le rang de u et est notée rg(u).
La proposition précédente montre que si G est un générateur de E , alors u(G) est un
générateur de Im(u). On en déduit que, si E est de dimension finie, le rang de u est fini
et rg(u) ≤ dim E , soit le rang est inférieur ou égal à la dimension de l’e.v de départ.

Exemple
Soit f (.) : R3 → R la forme linéaire définie par : f (x1 , x2 , x3 ) = −x1 + 2x2 + 5x3 . Par
définition, on sait que Im(f ) ⊂ F = R. Plus précisément, montrons que Im(f ) = R.
Soit y ∈ R, on cherche x = (x1 , x2 , x3 ) ∈ R3 tel que f (x ) = y . Mais f (x ) = y ⇔
−x1 + 2x2 + 5x3 = y . Ainsi, le triplet (−y , 0, 0) convient. D’où, Im(f ) = R.

Proposition
Soit u ∈ L(E , F ). Si W est un s.e.v de F , alors l’image réciproque de W par u, notée
u −1 (W ), est un s.e.v de E .

Démonstration.
La notation u −1 ne signifie pas que u admet une application réciproque. On note
u −1 (W ) = {x ∈ E /u(x ) ∈ W }. La démonstration est laissée en exercice.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 56/ 65


Chapitre 3 : Les Applications Linéaires
3.1 Image

Si Im(u) est de dimension finie, sa dimension est appelée le rang de u et est notée rg(u).
La proposition précédente montre que si G est un générateur de E , alors u(G) est un
générateur de Im(u). On en déduit que, si E est de dimension finie, le rang de u est fini
et rg(u) ≤ dim E , soit le rang est inférieur ou égal à la dimension de l’e.v de départ.

Exemple
Soit f (.) : R3 → R la forme linéaire définie par : f (x1 , x2 , x3 ) = −x1 + 2x2 + 5x3 . Par
définition, on sait que Im(f ) ⊂ F = R. Plus précisément, montrons que Im(f ) = R.
Soit y ∈ R, on cherche x = (x1 , x2 , x3 ) ∈ R3 tel que f (x ) = y . Mais f (x ) = y ⇔
−x1 + 2x2 + 5x3 = y . Ainsi, le triplet (−y , 0, 0) convient. D’où, Im(f ) = R.

Proposition
Soit u ∈ L(E , F ). Si W est un s.e.v de F , alors l’image réciproque de W par u, notée
u −1 (W ), est un s.e.v de E .

Démonstration.
La notation u −1 ne signifie pas que u admet une application réciproque. On note
u −1 (W ) = {x ∈ E /u(x ) ∈ W }. La démonstration est laissée en exercice.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 56/ 65


Chapitre 3 : Les Applications Linéaires
3.2 Noyau

Le cas particulier W = {0F } est important et est l’objet de la définition suivante.


Définition (noyau)
Le noyau de u ∈ L(E , F ) est le s.e.v de E : Ker (u) = u −1 ({0F }) = {x ∈ E /u(x ) = 0F }.

Théorème
Une application linéaire est injective si et seulement si son noyau est {0E }.

Démonstration.
Soit E et F deux K-e.v et u ∈ L(E , F ). Supposons que l’on a Ker (u) = {0E }. Pour
montrer l’injectivité de u, nous devons montrer que, si u(x ) = u(y ), alors x = y . L’égalité
u(x ) = u(y ) s’écrit u(x − y ) = 0F , c’est-à-dire x − y ∈ Ker (u). Mais comme Ker (u) a
le vecteur nul 0E pour unique élément, alors on aura x = y .
Inversement, si u est injective, tout élément de F , et en particulier 0F , a au plus une
pré-image. C’est bien dire que 0E est le seul élément de E qui soit envoyé sur 0F par
u.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 57/ 65
Chapitre 3 : Les Applications Linéaires
3.2 Noyau

Le cas particulier W = {0F } est important et est l’objet de la définition suivante.


Définition (noyau)
Le noyau de u ∈ L(E , F ) est le s.e.v de E : Ker (u) = u −1 ({0F }) = {x ∈ E /u(x ) = 0F }.

Théorème
Une application linéaire est injective si et seulement si son noyau est {0E }.

Démonstration.
Soit E et F deux K-e.v et u ∈ L(E , F ). Supposons que l’on a Ker (u) = {0E }. Pour
montrer l’injectivité de u, nous devons montrer que, si u(x ) = u(y ), alors x = y . L’égalité
u(x ) = u(y ) s’écrit u(x − y ) = 0F , c’est-à-dire x − y ∈ Ker (u). Mais comme Ker (u) a
le vecteur nul 0E pour unique élément, alors on aura x = y .
Inversement, si u est injective, tout élément de F , et en particulier 0F , a au plus une
pré-image. C’est bien dire que 0E est le seul élément de E qui soit envoyé sur 0F par
u.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 57/ 65
Chapitre 3 : Les Applications Linéaires
3.2 Noyau

Le cas particulier W = {0F } est important et est l’objet de la définition suivante.


Définition (noyau)
Le noyau de u ∈ L(E , F ) est le s.e.v de E : Ker (u) = u −1 ({0F }) = {x ∈ E /u(x ) = 0F }.

Théorème
Une application linéaire est injective si et seulement si son noyau est {0E }.

Démonstration.
Soit E et F deux K-e.v et u ∈ L(E , F ). Supposons que l’on a Ker (u) = {0E }. Pour
montrer l’injectivité de u, nous devons montrer que, si u(x ) = u(y ), alors x = y . L’égalité
u(x ) = u(y ) s’écrit u(x − y ) = 0F , c’est-à-dire x − y ∈ Ker (u). Mais comme Ker (u) a
le vecteur nul 0E pour unique élément, alors on aura x = y .
Inversement, si u est injective, tout élément de F , et en particulier 0F , a au plus une
pré-image. C’est bien dire que 0E est le seul élément de E qui soit envoyé sur 0F par
u.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 57/ 65
Chapitre 3 : Les Applications Linéaires
3.2 Noyau

Exemple
◀ Le noyau de l’application linéaire qui à tout P ∈ K [X ] associe P(0) est l’ensemble des
polynômes divisibles par X .
◀ Soit la forme linéaire f : R3 → R définie par f (x1 , x2 , x3 ) = −x1 + 2x2 + 5x3 .
Alors le noyau de f (.) est : Ker (f ) = {(x1 , x2 , x3 ) ∈ R3 / − x1 + 2x2 + 5x3 = 0}
Donc Ker (f ) est l’ensemble solution du système linéaire homogène à une équation −x1 +
2x2 + 5x3 = 0 ⇔ x1 = 2x2 + 5x3 . D’où Ker (f ) = {(2x2 + 5x3 , x2 , x3 ) avec (x2 , x3 ) ∈ R2 }.
En particulier Ker (f ) est un sous-espace vectoriel : en fait c’est le plan vectoriel engendré
par ((2, 1, 0), (5, 0, 1)), car ∀ (x2 , x3 ) ∈ R2 , (2x2 + 5x3 , x2 , x3 ) = x2 (2, 1, 0) + x3 (5, 0, 1).

Lemme
Soit E et F deux K-e.v et u(.) ∈ L(E , F ). Les propriétés suivantes sont équivalentes :
i) u(.) est injective
ii) l’image par u(.) de tout système libre de E est un système libre de F .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 58/ 65


Chapitre 3 : Les Applications Linéaires
3.2 Noyau

Exemple
◀ Le noyau de l’application linéaire qui à tout P ∈ K [X ] associe P(0) est l’ensemble des
polynômes divisibles par X .
◀ Soit la forme linéaire f : R3 → R définie par f (x1 , x2 , x3 ) = −x1 + 2x2 + 5x3 .
Alors le noyau de f (.) est : Ker (f ) = {(x1 , x2 , x3 ) ∈ R3 / − x1 + 2x2 + 5x3 = 0}
Donc Ker (f ) est l’ensemble solution du système linéaire homogène à une équation −x1 +
2x2 + 5x3 = 0 ⇔ x1 = 2x2 + 5x3 . D’où Ker (f ) = {(2x2 + 5x3 , x2 , x3 ) avec (x2 , x3 ) ∈ R2 }.
En particulier Ker (f ) est un sous-espace vectoriel : en fait c’est le plan vectoriel engendré
par ((2, 1, 0), (5, 0, 1)), car ∀ (x2 , x3 ) ∈ R2 , (2x2 + 5x3 , x2 , x3 ) = x2 (2, 1, 0) + x3 (5, 0, 1).

Lemme
Soit E et F deux K-e.v et u(.) ∈ L(E , F ). Les propriétés suivantes sont équivalentes :
i) u(.) est injective
ii) l’image par u(.) de tout système libre de E est un système libre de F .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 58/ 65


Chapitre 3 : Les Applications Linéaires
3.2 Noyau

Démonstration.
Supposons que u est injective et considérons une partie libre L ⊂ E . Soit y1 , ..., yk des
éléments distincts de u(L) et λ1 , ..., λk des scalaires. On a y1 = u(x1 ), ..., yk = u(xk )
Pk Pk
où x1 , ..., xk appartiennent à L et sont distincts. Comme j=1
λj yj = u( j=1
λj xj ), dire
Pk Pk
que λ y = 0F , c’est dire que
j=1 j j
λ x ∈ Ker (u). Or, puisque u est injective, 0E
j=1 j j
Pk
est le seul élément de Ker (u). Donc, si l’on suppose que j=1
λj yj = 0F , alors on aura
Pk
j=1
λj xj = 0E . Par suite, puisque L est libre, tous les λj sont nuls. Ceci prouve que u(L)
est libre. Nous venons de prouver que i) ⇒ ii).
Supposons maintenant que ii) est vraie. Si le noyau contenait un vecteur non nul x , la
partie libre {x } aurait pour image la partie {0F }, qui est liée. Ainsi, ii) implique i).

Soit E un K-e.v de dimension finie n non nulle et B = {e1 , ..., en } une base de E . Tout
Pn
vecteur x de E s’écrit de façon unique sous la forme x = i=1
xi ei où les xi sont des
scalaires. On vérifie facilement que chacune des applications x 7→ xi est une forme linéaire.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 59/ 65


Chapitre 3 : Les Applications Linéaires
3.2 Noyau

Démonstration.
Supposons que u est injective et considérons une partie libre L ⊂ E . Soit y1 , ..., yk des
éléments distincts de u(L) et λ1 , ..., λk des scalaires. On a y1 = u(x1 ), ..., yk = u(xk )
Pk Pk
où x1 , ..., xk appartiennent à L et sont distincts. Comme j=1
λj yj = u( j=1
λj xj ), dire
Pk Pk
que λ y = 0F , c’est dire que
j=1 j j
λ x ∈ Ker (u). Or, puisque u est injective, 0E
j=1 j j
Pk
est le seul élément de Ker (u). Donc, si l’on suppose que j=1
λj yj = 0F , alors on aura
Pk
j=1
λj xj = 0E . Par suite, puisque L est libre, tous les λj sont nuls. Ceci prouve que u(L)
est libre. Nous venons de prouver que i) ⇒ ii).
Supposons maintenant que ii) est vraie. Si le noyau contenait un vecteur non nul x , la
partie libre {x } aurait pour image la partie {0F }, qui est liée. Ainsi, ii) implique i).

Soit E un K-e.v de dimension finie n non nulle et B = {e1 , ..., en } une base de E . Tout
Pn
vecteur x de E s’écrit de façon unique sous la forme x = i=1
xi ei où les xi sont des
scalaires. On vérifie facilement que chacune des applications x 7→ xi est une forme linéaire.

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 59/ 65


Chapitre 3 : Les Applications Linéaires

L’application x 7→ xi est la i ième forme coordonnée par rapport à la base B. Si F est un


Pn
autre K-e.v, et si u ∈ L(E , F ), alors u(x ) = i=1
xi u(ei ). Ainsi, pour calculer u(x ) il
suffit de connaître les images par u(.) des vecteurs de la base B.
Pn
Inversement, si l’on se donne n vecteurs a1 , ..., an de F , l’application x 7→ i=1
xi ai est
un élément de L(E , F ), car les applications coordonnées sont linéaires. On a u(ej ) = aj .
Il en résulte que se donner un élément de L(E , F ), c’est simplement se donner les images
des vecteurs d’une base de E .
Théorème (Théorème Noyau-Image)
Soit u ∈ L(E , F ) avec E un e.v de dimension finie. On a la formule suivante :
dim E = dim Ker (u) + dim Im(u)

Démonstration.
Si Ker (u) = E , c’est évident car Im(u) = {0F }.
Si Ker (u) = {0E } et si {e1 , ..., en } est une base de E , alors {u(e1 ), ..., u(en )}) est une
base de Im(u). On a dim E = dim Im(u), d’où la relation annoncée puisque dim Ker (u) =
0.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 60/ 65
Chapitre 3 : Les Applications Linéaires

L’application x 7→ xi est la i ième forme coordonnée par rapport à la base B. Si F est un


Pn
autre K-e.v, et si u ∈ L(E , F ), alors u(x ) = i=1
xi u(ei ). Ainsi, pour calculer u(x ) il
suffit de connaître les images par u(.) des vecteurs de la base B.
Pn
Inversement, si l’on se donne n vecteurs a1 , ..., an de F , l’application x 7→ i=1
xi ai est
un élément de L(E , F ), car les applications coordonnées sont linéaires. On a u(ej ) = aj .
Il en résulte que se donner un élément de L(E , F ), c’est simplement se donner les images
des vecteurs d’une base de E .
Théorème (Théorème Noyau-Image)
Soit u ∈ L(E , F ) avec E un e.v de dimension finie. On a la formule suivante :
dim E = dim Ker (u) + dim Im(u)

Démonstration.
Si Ker (u) = E , c’est évident car Im(u) = {0F }.
Si Ker (u) = {0E } et si {e1 , ..., en } est une base de E , alors {u(e1 ), ..., u(en )}) est une
base de Im(u). On a dim E = dim Im(u), d’où la relation annoncée puisque dim Ker (u) =
0.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 60/ 65
Chapitre 3 : Les Applications Linéaires

L’application x 7→ xi est la i ième forme coordonnée par rapport à la base B. Si F est un


Pn
autre K-e.v, et si u ∈ L(E , F ), alors u(x ) = i=1
xi u(ei ). Ainsi, pour calculer u(x ) il
suffit de connaître les images par u(.) des vecteurs de la base B.
Pn
Inversement, si l’on se donne n vecteurs a1 , ..., an de F , l’application x 7→ i=1
xi ai est
un élément de L(E , F ), car les applications coordonnées sont linéaires. On a u(ej ) = aj .
Il en résulte que se donner un élément de L(E , F ), c’est simplement se donner les images
des vecteurs d’une base de E .
Théorème (Théorème Noyau-Image)
Soit u ∈ L(E , F ) avec E un e.v de dimension finie. On a la formule suivante :
dim E = dim Ker (u) + dim Im(u)

Démonstration.
Si Ker (u) = E , c’est évident car Im(u) = {0F }.
Si Ker (u) = {0E } et si {e1 , ..., en } est une base de E , alors {u(e1 ), ..., u(en )}) est une
base de Im(u). On a dim E = dim Im(u), d’où la relation annoncée puisque dim Ker (u) =
0.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 60/ 65
Chapitre 3 : Les Applications Linéaires

L’application x 7→ xi est la i ième forme coordonnée par rapport à la base B. Si F est un


Pn
autre K-e.v, et si u ∈ L(E , F ), alors u(x ) = i=1
xi u(ei ). Ainsi, pour calculer u(x ) il
suffit de connaître les images par u(.) des vecteurs de la base B.
Pn
Inversement, si l’on se donne n vecteurs a1 , ..., an de F , l’application x 7→ i=1
xi ai est
un élément de L(E , F ), car les applications coordonnées sont linéaires. On a u(ej ) = aj .
Il en résulte que se donner un élément de L(E , F ), c’est simplement se donner les images
des vecteurs d’une base de E .
Théorème (Théorème Noyau-Image)
Soit u ∈ L(E , F ) avec E un e.v de dimension finie. On a la formule suivante :
dim E = dim Ker (u) + dim Im(u)

Démonstration.
Si Ker (u) = E , c’est évident car Im(u) = {0F }.
Si Ker (u) = {0E } et si {e1 , ..., en } est une base de E , alors {u(e1 ), ..., u(en )}) est une
base de Im(u). On a dim E = dim Im(u), d’où la relation annoncée puisque dim Ker (u) =
0.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 60/ 65
Chapitre 3 : Les Applications Linéaires
3.3.1 Matrice d’application linéaire entre espaces de dimension finie

suite de la démonstration
Si Ker (u) ̸= {0E }, on considère une base {e1 , ..., ek } de Ker (u) que l’on complète en une
base {e1 , ..., ek , ..., en } de E . X
Les vecteurs u(ek+1 ), ..., u(en ) engendrent Im(u). Montrons
n nX
qu’ils sont indépendants. Si λj u(ej ) = 0F , alors on a λj ej ∈ Ker (u),
j=k+1 j=k+1
Xn
d’où λj ej = 0E et par suite λk+1 = ... = λn = 0.
j=k+1

Corollaire
Si dim E est finie et si u ∈ L(E , F ), alors : dim Im(u) = rg(u) ≤ dim F .

Proposition
Soient E et F sont deux e.v de dimension finie, et u ∈ L(E , F ). Les propriétés suivantes
sont équivalentes :
i) u est un isomorphisme
ii) l’image par u de toute base de E est une base de F
iii) il existe une base de E dont l’image par u est une base de F

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 61/ 65


Chapitre 3 : Les Applications Linéaires
3.3.1 Matrice d’application linéaire entre espaces de dimension finie

suite de la démonstration
Si Ker (u) ̸= {0E }, on considère une base {e1 , ..., ek } de Ker (u) que l’on complète en une
base {e1 , ..., ek , ..., en } de E . X
Les vecteurs u(ek+1 ), ..., u(en ) engendrent Im(u). Montrons
n nX
qu’ils sont indépendants. Si λj u(ej ) = 0F , alors on a λj ej ∈ Ker (u),
j=k+1 j=k+1
Xn
d’où λj ej = 0E et par suite λk+1 = ... = λn = 0.
j=k+1

Corollaire
Si dim E est finie et si u ∈ L(E , F ), alors : dim Im(u) = rg(u) ≤ dim F .

Proposition
Soient E et F sont deux e.v de dimension finie, et u ∈ L(E , F ). Les propriétés suivantes
sont équivalentes :
i) u est un isomorphisme
ii) l’image par u de toute base de E est une base de F
iii) il existe une base de E dont l’image par u est une base de F

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 61/ 65


Chapitre 3 : Les Applications Linéaires
3.3.1 Matrice d’application linéaire entre espaces de dimension finie

suite de la démonstration
Si Ker (u) ̸= {0E }, on considère une base {e1 , ..., ek } de Ker (u) que l’on complète en une
base {e1 , ..., ek , ..., en } de E . X
Les vecteurs u(ek+1 ), ..., u(en ) engendrent Im(u). Montrons
n nX
qu’ils sont indépendants. Si λj u(ej ) = 0F , alors on a λj ej ∈ Ker (u),
j=k+1 j=k+1
Xn
d’où λj ej = 0E et par suite λk+1 = ... = λn = 0.
j=k+1

Corollaire
Si dim E est finie et si u ∈ L(E , F ), alors : dim Im(u) = rg(u) ≤ dim F .

Proposition
Soient E et F sont deux e.v de dimension finie, et u ∈ L(E , F ). Les propriétés suivantes
sont équivalentes :
i) u est un isomorphisme
ii) l’image par u de toute base de E est une base de F
iii) il existe une base de E dont l’image par u est une base de F

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 61/ 65


Chapitre 3 : Les Applications Linéaires
3.3.2 Isomorphismes

Démonstration.
Si u est un isomorphisme et B = {e1 , ..., en } une base de E , il résulte que u(B), qui est à
la fois libre et générateur de E , est une base de F . Ceci prouve que i) ⇒ ii). Clairement,
on a ii) ⇒ iii).
Montrons que iii) ⇒ i). Soit B = {e1 , ..., en } une base de E telle que u(B) =
Pn
{u(e1 ), ..., u(en )} soit une base de F . Il résulte que u est surjective. Soit x = λe
i=1 i i
Pn
tel que u(x ) = 0F . Puisque u(B) est libre et puisque u(x ) = i=1 λi u(ei ), alors on aura
λi = ... = λn = 0. Nous venons de montrer que Ker (u) = {0E }, soit u injective.

Corollaire
Deux espaces vectoriels de dimension finie sont isomorphes ssi ils ont la même dimension.

Définition
Si u ∈ L(E , F ) et si BE = {e1 , ..., em } est une base de E et BF = {f1 , ..., fn } une base
de F , on appelle matrice de u par rapport à ces bases la matrice A = (ai,j )1≤i≤m dont la
1≤j≤n
j ieme colonne est constituée des coordonnées de u(ej ) dans la base BF .
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 62/ 65
Chapitre 3 : Les Applications Linéaires
3.3.2 Isomorphismes

Démonstration.
Si u est un isomorphisme et B = {e1 , ..., en } une base de E , il résulte que u(B), qui est à
la fois libre et générateur de E , est une base de F . Ceci prouve que i) ⇒ ii). Clairement,
on a ii) ⇒ iii).
Montrons que iii) ⇒ i). Soit B = {e1 , ..., en } une base de E telle que u(B) =
Pn
{u(e1 ), ..., u(en )} soit une base de F . Il résulte que u est surjective. Soit x = λe
i=1 i i
Pn
tel que u(x ) = 0F . Puisque u(B) est libre et puisque u(x ) = i=1 λi u(ei ), alors on aura
λi = ... = λn = 0. Nous venons de montrer que Ker (u) = {0E }, soit u injective.

Corollaire
Deux espaces vectoriels de dimension finie sont isomorphes ssi ils ont la même dimension.

Définition
Si u ∈ L(E , F ) et si BE = {e1 , ..., em } est une base de E et BF = {f1 , ..., fn } une base
de F , on appelle matrice de u par rapport à ces bases la matrice A = (ai,j )1≤i≤m dont la
1≤j≤n
j ieme colonne est constituée des coordonnées de u(ej ) dans la base BF .
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 62/ 65
Chapitre 3 : Les Applications Linéaires
3.3.2 Isomorphismes

Démonstration.
Si u est un isomorphisme et B = {e1 , ..., en } une base de E , il résulte que u(B), qui est à
la fois libre et générateur de E , est une base de F . Ceci prouve que i) ⇒ ii). Clairement,
on a ii) ⇒ iii).
Montrons que iii) ⇒ i). Soit B = {e1 , ..., en } une base de E telle que u(B) =
Pn
{u(e1 ), ..., u(en )} soit une base de F . Il résulte que u est surjective. Soit x = λe
i=1 i i
Pn
tel que u(x ) = 0F . Puisque u(B) est libre et puisque u(x ) = i=1 λi u(ei ), alors on aura
λi = ... = λn = 0. Nous venons de montrer que Ker (u) = {0E }, soit u injective.

Corollaire
Deux espaces vectoriels de dimension finie sont isomorphes ssi ils ont la même dimension.

Définition
Si u ∈ L(E , F ) et si BE = {e1 , ..., em } est une base de E et BF = {f1 , ..., fn } une base
de F , on appelle matrice de u par rapport à ces bases la matrice A = (ai,j )1≤i≤m dont la
1≤j≤n
j ieme colonne est constituée des coordonnées de u(ej ) dans la base BF .
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 62/ 65
Chapitre 3 : Les Applications Linéaires
3.3.3 Matrice d’application linéaire entre espaces de dimension finie

Proposition
Si x ∈ E , y = u(x ) et X et Y sont les matrices associées à x et y dans les bases
{e1 , ..., em } et {f1 , ..., fn }, alors on a Y = AX .

Démonstration.
Pm Pm Pm Pn Pn Pm
y = u( j=1
xj ej ) = j=1
xj u(ej ) = j=1
xj ( i=1
ai,j fi ) = i=1
( j=1
ai,j xj )fi

Proposition
Soit u ∈ L(E , F ) dont la matrice par rapport aux bases BE et BF est A et v ∈ L(F , G)
dont la matrice par rapport aux bases BF et BG est B. Alors la matrice de vu par rapport
aux bases BE et BG est BA.

Démonstration.
Soit x ∈ E . On Pose y = u(x ) et z = v (y ). Les colonnes des coordonnées de x , y et z
par rapport aux bases BE , BF et BG sont X , Y et Z . D’après la proposition précédente,
on a Y = AX et Z = BY , d’où Z = BAX . C’est bien dire que BA est la matrice de vu
par rapport aux bases BE et BG .
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 63/ 65
Chapitre 3 : Les Applications Linéaires
3.3.3 Matrice d’application linéaire entre espaces de dimension finie

Proposition
Si x ∈ E , y = u(x ) et X et Y sont les matrices associées à x et y dans les bases
{e1 , ..., em } et {f1 , ..., fn }, alors on a Y = AX .

Démonstration.
Pm Pm Pm Pn Pn Pm
y = u( j=1
xj ej ) = j=1
xj u(ej ) = j=1
xj ( i=1
ai,j fi ) = i=1
( j=1
ai,j xj )fi

Proposition
Soit u ∈ L(E , F ) dont la matrice par rapport aux bases BE et BF est A et v ∈ L(F , G)
dont la matrice par rapport aux bases BF et BG est B. Alors la matrice de vu par rapport
aux bases BE et BG est BA.

Démonstration.
Soit x ∈ E . On Pose y = u(x ) et z = v (y ). Les colonnes des coordonnées de x , y et z
par rapport aux bases BE , BF et BG sont X , Y et Z . D’après la proposition précédente,
on a Y = AX et Z = BY , d’où Z = BAX . C’est bien dire que BA est la matrice de vu
par rapport aux bases BE et BG .
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 63/ 65
Chapitre 3 : Les Applications Linéaires
3.3.3 Matrice d’application linéaire entre espaces de dimension finie

Proposition
Si x ∈ E , y = u(x ) et X et Y sont les matrices associées à x et y dans les bases
{e1 , ..., em } et {f1 , ..., fn }, alors on a Y = AX .

Démonstration.
Pm Pm Pm Pn Pn Pm
y = u( j=1
xj ej ) = j=1
xj u(ej ) = j=1
xj ( i=1
ai,j fi ) = i=1
( j=1
ai,j xj )fi

Proposition
Soit u ∈ L(E , F ) dont la matrice par rapport aux bases BE et BF est A et v ∈ L(F , G)
dont la matrice par rapport aux bases BF et BG est B. Alors la matrice de vu par rapport
aux bases BE et BG est BA.

Démonstration.
Soit x ∈ E . On Pose y = u(x ) et z = v (y ). Les colonnes des coordonnées de x , y et z
par rapport aux bases BE , BF et BG sont X , Y et Z . D’après la proposition précédente,
on a Y = AX et Z = BY , d’où Z = BAX . C’est bien dire que BA est la matrice de vu
par rapport aux bases BE et BG .
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 63/ 65
Chapitre 3 : Les Applications Linéaires
3.3.3 Matrice d’application linéaire entre espaces de dimension finie

Proposition
Si x ∈ E , y = u(x ) et X et Y sont les matrices associées à x et y dans les bases
{e1 , ..., em } et {f1 , ..., fn }, alors on a Y = AX .

Démonstration.
Pm Pm Pm Pn Pn Pm
y = u( j=1
xj ej ) = j=1
xj u(ej ) = j=1
xj ( i=1
ai,j fi ) = i=1
( j=1
ai,j xj )fi

Proposition
Soit u ∈ L(E , F ) dont la matrice par rapport aux bases BE et BF est A et v ∈ L(F , G)
dont la matrice par rapport aux bases BF et BG est B. Alors la matrice de vu par rapport
aux bases BE et BG est BA.

Démonstration.
Soit x ∈ E . On Pose y = u(x ) et z = v (y ). Les colonnes des coordonnées de x , y et z
par rapport aux bases BE , BF et BG sont X , Y et Z . D’après la proposition précédente,
on a Y = AX et Z = BY , d’où Z = BAX . C’est bien dire que BA est la matrice de vu
par rapport aux bases BE et BG .
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 63/ 65
Chapitre 3 : Les Applications Linéaires

Proposition
Soit u ∈ L(E ) avec E un e.v de dimension finie. Les propriétés suivantes sont équiva-
lentes :
i) u est injective
ii) Ker (u) = {0E }
iii) u est surjective
iv) Im(u) = E
v) rg(u) = dim E
vi) u est un isomorphisme (on dit aussi que u est inversible)

Démonstration.
On sait déjà que i) et ii) sont équivalentes, ainsi que iii), iv) et v). Puisque dim Ker (u) +
dim Im(u) = dim E , en vertu du théorème noyau-image, ii) et v) sont équivalentes. Nous
venons de montrer que, si u est injective, elle est aussi surjective. Par conséquent, c’est
un isomorphisme. Comme tout isomorphisme est injectif, il résulte que i) et vi) sont
équivalentes.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 64/ 65
Chapitre 3 : Les Applications Linéaires

Proposition
Soit u ∈ L(E ) avec E un e.v de dimension finie. Les propriétés suivantes sont équiva-
lentes :
i) u est injective
ii) Ker (u) = {0E }
iii) u est surjective
iv) Im(u) = E
v) rg(u) = dim E
vi) u est un isomorphisme (on dit aussi que u est inversible)

Démonstration.
On sait déjà que i) et ii) sont équivalentes, ainsi que iii), iv) et v). Puisque dim Ker (u) +
dim Im(u) = dim E , en vertu du théorème noyau-image, ii) et v) sont équivalentes. Nous
venons de montrer que, si u est injective, elle est aussi surjective. Par conséquent, c’est
un isomorphisme. Comme tout isomorphisme est injectif, il résulte que i) et vi) sont
équivalentes.
Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 64/ 65
Chapitre 3 : Les Applications Linéaires
3.3.4 Formule de changement de bases

Proposition (Formule de changement de bases)


Soient E un e.v de dimension finie, B et B′ deux bases de E , P la matrice de passage
de B à B′ et u ∈ L(E ). Si A et A′ désignent les matrices de u respectivement dans les
bases B et B′ , alors on a : A′ = P −1 AP.

Démonstration.
En effet, si X et X ′ sont les colonnes des composantes d’un vecteur x dans les bases B
et B′ et si Y et Y ′ sont celles de u(x ), on a Y = AX , X = PX ′ et Y ′ = P −1 Y , d’où
Y ′ = P −1 APX ′ .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 65/ 65


Chapitre 3 : Les Applications Linéaires
3.3.4 Formule de changement de bases

Proposition (Formule de changement de bases)


Soient E un e.v de dimension finie, B et B′ deux bases de E , P la matrice de passage
de B à B′ et u ∈ L(E ). Si A et A′ désignent les matrices de u respectivement dans les
bases B et B′ , alors on a : A′ = P −1 AP.

Démonstration.
En effet, si X et X ′ sont les colonnes des composantes d’un vecteur x dans les bases B
et B′ et si Y et Y ′ sont celles de u(x ), on a Y = AX , X = PX ′ et Y ′ = P −1 Y , d’où
Y ′ = P −1 APX ′ .

Professeur Samir Essid ALGÈBRE LINÉAIRE Janvier 2023 65/ 65

Vous aimerez peut-être aussi