Vous êtes sur la page 1sur 69

Cours d’Algèbre Licence Première Année

Université Jean Lorougnon Guédé Daloa

Docteur Yao Aubin N’DRI Page 1


Sommaire
Chapitre 1 Ensembles et Applications..…………...……………………... 3
1. Ensembles ………..……….……………………………………………………...3
2. Applications.…. …………………………………………….……………….9

Chapitre 2 Structures algébriques ..…………………………………………………17


1. Lois de Compositions Internes……………………………………………………………..17
2. Structure de Groupe………………………………………………………………………..20
3. Structure d’Anneaux……………………………………………………………………….21
4. Structure de corps…………………………………………………………………………..23
5. Structure d’espaces vectoriels ……………………………………………………………..23

Chapitre 3 Matrices…...………………………………………………………………..34

1 Définitions…………………………………………………………………………………..34

2 Trois opérations sur les matrices à coefficients dans K ………………………..…………..35

3 Matrices carrées inversibles.......................................................................................…........39

4 Matrices carrées inversibles de 𝑀𝑛 (𝐾)…………..………………………………………...40

5 Rang d’une matrice…………………………………………………………………………42

6 Les systèmes d’équations linéaires…………………………………………………………43

Chapitre 4 Matrices et applications linéaires …………………………………….48


1 Définitions et opérations sur les applications linéaires…………..…………………………48

2 Application linéaire et sous-espaces vectoriels……………………………………………..50

3 Bases, dimension et applications linéaires………………………..………………………...52

4 Matrice d’une application linéaire et changement de bases…………………..…………….56

Chapitre 5 Polynômes et Fractions rationnelles……………………………………………………59


1 Définitions et opérations sur les polynômes………………………………………………..59

2 Racine d’un polynôme, factorisation……………………………………………………….61

3 Fractions rationnelles……………………………………………………………………….64

Docteur Yao Aubin N’DRI Page 2


Chapitre 1 Ensembles et Applications

Introduction
Nous définissons dans ce chapitre la notion d’ensemble, les opérations usuelles sur les
ensembles (sous-ensembles, complémentaires, intersections, unions, produits, ensemble
des parties) puis nous abordons par la suite la notion de fonction (ou application) qui est
fondamentale dans toutes les mathématiques.

1 Ensembles
1.1 Langage ensembliste

Définition 1.1 Un ensemble est une collection d’objets.

Exemples {-1 ; 1}, {orange, blanc, vert}, {0, 1, 2, … } = ℕ sont des ensembles.

Remarque Un ensemble particulier est l’ensemble vide, noté ∅ qui est l’ensemble
ne contenant aucun élément. On note 𝑥 ∈ 𝐸 (lire 𝑥 appartient à E) si 𝑥 est un
élément de E, et 𝑥 ∉ 𝐸 (lire 𝑥 n’appartient pas à E) si 𝑥 n’est pas dans
l’ensemble E.

Une autre façon de définir des ensembles.

Définition 1.2 Un ensemble est une collection d’objets qui vérifient une
propriété.

Exemples : {𝑥 ∈ ℝ, |𝑥 2 − 3| < 2}, {𝑧 ∈ ℂ, 𝑧 𝑛 = 1 𝑎𝑣𝑒𝑐 𝑛 ∈ ℕ}, {𝑥 ∈ ℝ, −3 < 𝑥 < 2} = ]−3 ; 2[.

Inclusion, Union, Intersection, Complémentaire

L’inclusion. On dit qu’un ensemble F est inclus dans un autre ensemble E (ce qu’on note

F ⊂ E) si tous les éléments de F sont aussi dans E. En d’autres termes si 𝑥 ∈ 𝐹 ⇒ 𝑥 ∈ 𝐸.

On dit alors que F est un sous-ensemble de E ou une partie de E.


Deux ensembles sont égaux s’ils ont les mêmes éléments. En particulier :

F ⊂ E et E ⊂ F ⇔ E = F.

Docteur Yao Aubin N’DRI Page 3


Ensemble des parties. Soit E un ensemble, on peut former un nouvel ensemble dont les
éléments sont les sous-ensembles de E et que l’on note 𝒫(𝐸) : 𝒫(𝐸) = {𝐹, 𝐹 ⊂ 𝐸}.

Par exemple 𝒫(∅) = {∅} (ensemble avec un élément), 𝒫({0,1}) ={∅, {0}, {1}, {0, 1}},

𝒫({1, 2, 3}) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}}.

Union. Si E et F sont deux ensembles on peut former un ensemble appelé leur union et notée
E ∪ F et définie par :

𝐸 ∪ 𝐹 = {𝑥, 𝑥 ∈ 𝐸 𝑜𝑢 𝑥 ∈ 𝐹}.
Par exemple si E = {0, 1, 2, 3, 5, 7, 8} et F = {0, 1, 2, 4, 8, 16, 32} alors

E ∪ F = {0, 1, 2, 3, 4, 5, 7, 8, 16, 32}

Intersection. Si E et F sont deux ensembles on peut former un ensemble appelé leur


intersection notée E ∩ F et définie par :

𝐸 ∩ 𝐹 = {𝑥, 𝑥 ∈ 𝐸 𝑒𝑡 𝑥 ∈ 𝐹}.

Par exemple si E = {0, 1, 2, 3, 5, 7, 8} et F = {0, 1, 2, 4, 8, 16, 32} alors

E ∩ F = {0, 1, 2, 8}
Complémentaire. Soit F un sous-ensemble de E ; on définit le complémentaire de F dans
E que l’on note ∁𝐹𝐸 (ou simplement 𝐹̅ si E est sous-entendu) comme l’ensemble des éléments
de E qui n’appartiennent pas à F : ∁𝐹𝐸 = {𝑥 ∈ 𝐸, 𝑥 ∉ 𝐹}.

Si F n’est plus nécessairement un sous-ensemble de E on emploiera la notation : 𝐸 ∖ 𝐹 ou

𝐸 − 𝐹 pour désigner {𝑥 ∈ 𝐸, 𝑥 ∉ 𝐹}.

On a : 𝐵 − 𝐴 = 𝐵 − (𝐴 ∩ 𝐵).
En particulier si A et B sont les parties de E,
𝐵 − 𝐴 = 𝐵 ∩ ∁𝐸 𝐴.

Par exemple le complémentaire de A (l’ensemble des nombres impairs) dans ℕ est :

∁ℕ𝐴 = {𝑥 ∈ ℕ, ∃∈ ℕ, 𝑥 = 2𝑦}.

1.2 Opérations sur les parties d’un ensemble

Il est très important de savoir calculer et raisonner sur les ensembles. Il faut aussi remarquer
que le calcul sur les ensembles est entièrement analogue au calcul sur les propositions. En effet
l’union correspond au connecteur ou. L’intersection correspond au connecteur et. La relation
d’inclusion correspond à l’implication ; prendre le complémentaire correspond au connecteur
non.

Docteur Yao Aubin N’DRI Page 4


Proposition 1.1 Soit E un ensemble et A, B, C trois parties de E. On a :

1) A ∩ B = B ∩ A et A ∪ B = B ∪ A.

2) (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) et (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) (Distributivité).

3) 𝐴̿ = 𝐴 et donc 𝐴 ⊂ 𝐵 ⇔ 𝐵̅ ⊂ 𝐴̅.

4) ̅̅̅̅̅̅̅
𝐴 ∩ 𝐵 = 𝐴̅ ∪ 𝐵̅ 𝑒𝑡 ̅̅̅̅̅̅̅
𝐴 ∪ 𝐵 = 𝐴̅ ∩ 𝐵̅ (𝐿𝑜𝑖 𝑑𝑒 𝑀𝑜𝑟𝑔𝑎𝑛).

5) 𝐴 × (𝐵 ∩ 𝐶) = (𝐴 × 𝐵) ∩ (𝐴 × 𝐶) et 𝐴 × (𝐵 ∪ 𝐶) = (𝐴 × 𝐵) ∪ (𝐴 × 𝐶).

6) Si 𝐴 ⊂ 𝐵 et 𝐶 ⊂ 𝐷 ⇒ 𝐴 × 𝐶 ⊂ 𝐵 × 𝐷.

Preuve
Démontrons la première formule de distributivité.

2) Soit x ∈ A ∩ (B ∪ C) ⇔ x ∈ A et (x ∈ B ou x ∈ C)
⇔ (x ∈ A et x ∈ B) ou (x ∈ A et x ∈ C)
⇔ x ∈ (A ∩ B) ∪ (A ∩ C).
4) La loi de Morgan se démontre de manière similaire.
Soit 𝑥 ∈ ̅̅̅̅̅̅̅
𝐴∪𝐵 ⇔ non ( x ∈ A ou x ∈ B)
⇔ non ( x ∈ A) et non (x ∈ B)
⇔ x ∈ 𝐴̅ ∩ 𝐵̅ .
Les autres démonstrations sont similaires et laissées en exercice au lecteur.

1.3 Produit cartésien

Si 𝑥 ∈ 𝐸 et 𝑦 ∈ 𝐹 on peut fabriquer un nouvel élément appelé couple et noté (x, y), caractérisé
par le fait que (x, y) = (z, t) si et seulement si x = z et y = t. L’ensemble de ces couples s’appelle
le produit (cartésien) de E et F et se note : 𝐸 × 𝐹 = {(𝑥, 𝑦), 𝑥 ∈ 𝐸 𝑒𝑡 𝑦 ∈ 𝐹}.

Exemples

1) ℝ2 = ℝ × ℝ = {(𝑥, 𝑦) ; 𝑥 , 𝑦 ∈ ℝ}.

2) [−1, 1] × ℝ = {(𝑥, 𝑦) ; −1 ≤ 𝑥 ≤ , 𝑦 ∈ ℝ}.

Docteur Yao Aubin N’DRI Page 5


1.4 Relations

1.4.1 Relations binaires

Définition 1.3
Une relation binaire  sur un ensemble E, e s t u n s o u s - e n s e m b l e d e
𝐸 × 𝐸.
Ou une propriété qui relie ou non deux éléments 𝑥 et 𝑦 de E.

Notation : On note 𝑥 ℜ 𝑦 pour dire que l’élément 𝑥 est en relation avec 𝑦.

Exemples
 L'inégalité ≤ est une relation sur ℕ, ℤ ou ℝ.
 Le parallélisme et l'orthogonalité sont des relations sur l'ensemble des droites du plan
ou de l'espace.
 L'inclusion ⊂ est une relation sur P(𝑋), où 𝑋 est un ensemble quelconque.
 L’équation 𝑦 = 𝑓(𝑥) est une relation binaire, comme
ℜ = {(𝑥, 𝑦) ∶ 2𝑥 + 𝑦 = −1, 𝑥 ∈ ℝ} est une relation binaire.
 Soit 𝐸 un ensemble et soient 𝑥, 𝑦 𝐸, 𝑥 ℜ 𝑦 si et seulement si 𝑦 = 𝑥 est une relation
binaire sur 𝐸.
 La relation d'inclusion est une relation binaire dans l'ensemble des parties de E.

1.4.2 Qualités d’une relation binaire

Définition 1.4
Soit ℜ une relation sur un ensemble E.
 ℜ est réflexive si pour tout 𝑥 ∈ 𝐸, on a 𝑥 ℜ 𝑥 ;
 ℜ est symétrique si pour tout 𝑥, 𝑦 ∈ 𝐸, on a 𝑥ℜ𝑦 ⇒ 𝑦ℜ𝑥 ;
 ℜ est antisymétrique si pour tout 𝑥, 𝑦 ∈ 𝐸, (𝑥ℜ𝑦 𝑒𝑡 𝑦ℜ𝑥) ⇒ 𝑥 = 𝑦 ;
 ℜ est transitive si pour tout 𝑥, 𝑦, 𝑧 ∈ 𝐸, (𝑥ℜ𝑦 𝑒𝑡 𝑦ℜ𝑧) ⇒ 𝑥ℜ𝑧.

Exemples
 La relation d’égalité = sur 𝐸 est réflexive, symétrique, antisymétrique et transitive.
 Les relations ≤ et ≥ sur ℝ sont réflexives, antisymétrique et transitives. Elles ne sont
pas symétriques.
 Les relation < et > sur ℝ sont antisymétriques et transitives. Elles ne sont ni réflexives,
ni symétriques.
 La relation de divisibilité | sur ℤ est réflexive et transitive. Elle n’est ni symétrique, ni
antisymétrique : (2|(−2) et −2|2 mais −2 ≠ 2).

1.4.3 Relations d’équivalence

Définition 1.5 Soit E un ensemble et  une relation, c’est une relation

d’équivalence si : - ∀𝑥 ∈ 𝐸, 𝑥  𝑥, (réflexivité)

Docteur Yao Aubin N’DRI Page 6


– ∀𝑥, 𝑦 ∈ 𝐸, 𝑥  𝑦 ⇒ 𝑦  𝑥, (symétrie)

– ∀x, y, z ∈ E, x  y et y  z ⇒ x  z, (transitivité)

Exemples Voici des exemples basiques.

1) La relation  «être parallèle» est une relation d’équivalence pour l’ensemble


E des droites affines du plan.

● réflexivité : une droite est parallèle à elle-même,


● symétrie : si D est parallèle à F ' alors F est parallèle à D,
● transitivité : si D parallèle à F et F parallèle à G alors D est parallèle à G.

2) La relation «être du même âge» est une relation d’équivalence.

3) La relation «être perpendiculaire» n’est pas une relation d’équivalence (ni la


réflexivité, ni la transitivité ne sont vérifiées).

4) La relation (< sur 𝐸 = ℝ par exemple) n’est pas une relation d’équivalence
car la symétrie n’est pas vérifiée.

1.4.4 Classes d’équivalence

Définition 1.6 Soit un ensemble E muni d'une relation d'équivalence  . La classe


d'équivalence d'un élément x de E est l'ensemble des éléments de E qui sont en relation avec x.
On la note cl(x) ou 𝑥̇ ou 𝑥̅ .
cl(x)=  y  E, yx .

R e m a r q u e cl(x) est donc un sous-ensemble de E. Tout él ém ent d'une cl asse


d'équival ence s'appel l e un rep résen tan t de cet t e cl asse.

Soit E un ensemble et  une relation d’équivalence sur E. On a les propriétés


suivantes :

Docteur Yao Aubin N’DRI Page 7


Proposition 1 . 1

1 ) c l ( x ) = c l ( y ) ⇔ x  y.

2) Pour tout x, y ∈ E, cl(x) = cl( y) ou cl(x) ∩ cl( y) =∅.

3) L' e n s e m b l e d e s c l a s s e s d ' é q u i v a l e n c e e s t u n e p a r t i t i o n d e E .
Réciproquement, toute partition de E définit une relation d'équivalence
sur E.

Définition 1.7 Une partition de E est un ensemble {Ei} de parties de E tel que E = ⋃𝑖 𝐸𝑖 et
𝐸𝑖 ⋂𝐸𝑗 = ∅ si i ≠ j.

Exemples
1) Pour la relation «être du même âge», la classe d’équivalence d’une personne est l’ensemble
des personnes ayant le même âge. Il y a donc une classe d’équivalence formée des personnes
de 18 ans, une autre formée des personnes de 19 ans,... Les trois assertions de la proposition se
lisent ainsi :
– On est dans la même classe d’équivalence si et seulement si on est du même âge.
– Deux personnes appartiennent soit à la même classe, soit à des classes disjointes.
– Si on choisit une personne de chaque âge possible, cela forme un ensemble de représentants.

Maintenant une personne quelconque appartient à une et une seule classe d’un des
représentants.

2) Pour la relation «être parallèle», la classe d’équivalence d’une droite est l’ensemble des
droites parallèles. À chaque classe d’équivalence correspond une et une seule direction.

1.4.5 Relations d'ordre

Définition 1.8 On dit qu'une relation binaire  dans un ensemble E est une relation d'ordre
si elle est :

● réflexive : x  x, ∀ 𝑥 ∈ 𝐸,

● antisymétrique : ∀ 𝑥 ∈ 𝐸 , ∀ 𝑦 ∈ 𝐸 ; x  y et y  x s i e t s e u l e m e n t s i x = y ,

● transitive : ∀ (𝑥, 𝑦, 𝑧) ∈ 𝐸 3 , x  y et y  z  x  z .

En général, une relation d'ordre sera notée ≤ et on dit que (E, ≤) est un ensemble ordonné.

Docteur Yao Aubin N’DRI Page 8


Soit (E, ≤) un ensemble ordonné. On dit que deux éléments x et y de E sont comparables si

x ≤ y ou y ≤ x. Si deux éléments quelconques de E sont comparables, on dit que la relation


d'ordre ≤ est une relation d'ordre total ; (E, ≤) est alors totalement ordonné.

Dans le cas contraire, on dit que ≤ est une relation d'ordre partiel et (E, ≤) est dit partiellement
ordonné.

Exemples

1) Dans ℕ, ℤ, ℝ, l'ordre usuel (≤) est un ordre total.

2) Soit E un ensemble, la relation d'inclusion est une relation d'ordre partiel en général entre
éléments de P(E). On dit que P(E) est ordonné par inclusion.

2 Applications

2.1 Définitions, Notations et Exemples

Définitions 2.1 Une application (ou fonction) définie sur E et à valeurs dans F est une
relation qui, à tout é l é m e n t de E fait correspondre un unique élément de F. Si on note
f cette application, l ’ é l é m e n t associé à x par f est noté f (x). L’ensemble E s’appelle
l’ensemble de départ, l’ensemble F s’appelle l’ensemble d’arrivée de f.

On note souvent une fonction 𝑓 ∶ 𝐸 → 𝐹 ou, si les ensembles E et F sont sous-


entendus, 𝑥 ⟼ 𝑓(𝑥). L’élément 𝑓(𝑥) = 𝑦 s’appelle l’image de x par f et x s’appelle un
antécédent de y par f.

Exemples

1) L’association x ln ( x 2  1 ) + sin(x) définit une application de ℝ dans ℝ.

2) L’association x (√𝑥 − 1 ) exp(x+ x ) définit une application de ℝ+ dans ℝ.

3) L’application qui à tout é l é m ent 𝑥 ∈ 𝐸 associe x s’appelle l’application identique de


E et se note 𝐼𝑑𝐸 .

Egalité de deux applications

Deux applications f, g : E → F sont égales si et seulement si pour tout

∀𝑥 ∈ 𝐸, 𝑓(𝑥) = 𝑔(𝑥). On note alors 𝑓 = 𝑔.

Graphe d’une fonction

Le graphe de 𝑓: 𝐸 → 𝐹 est  f  ( x, f ( x))  E  F , x  E .

Docteur Yao Aubin N’DRI Page 9


Restriction d’une fonction

Si f est une application de E dans F et si H est un sous-ensemble de E, on peut définir 𝑓′ la


restriction de f à H par : ∀ x ∈ H, 𝑓 ′ (𝑥) = 𝑓(𝑥).

Composition

Si f : E → F et g : F → G sont deux applications, on peut définir la composée de f et g par


𝑔 ∘ 𝑓(𝑥) = 𝑔(𝑓(𝑥)).

Une propriété importante de la composition des applications est l’associativité.

Proposition 2.1 La composition des applications est associative. C’est-à-dire que si

f : E → F, g : F → G et h : G → W sont trois applications, alors (ℎ ∘ 𝑔) ∘ 𝑓 = ℎ ∘ (𝑔 ∘ 𝑓)

(Que l’on note simplement ℎ ∘ 𝑔 ∘ 𝑓).

2.2 Injection, Surjection, Bijection

2.2.1 Injection, Surjection

Il est naturel, disposant d’une fonction f, étudier les équations du type : f(x) = f(y) ou encore

y = f(x). Cela conduit à la notion d’application injective ou surjective.

Définition 2.2 Une application f : E  F est injective si (pour tout x, y ∈ E) l’égalité

f(x) = f(y) entraine x = y.

En d’autres termes tout élément de F a au plus un antécédent.

Remarque Une application f : E  F est injective si deux éléments distincts de E on deux


images distinctes dans F. C’est-à-dire, x1  x2  f (x1 )  f (x 2 ) .

Exemple. Les fonctions x x+2 (de ℝ dans ℝ) et x log(x) (de ℝ∗+ dans ℝ ) sont

injectives mais les fonctions x x2 et x sin(x) de ℝ dans ℝ ne sont pas injectives.

Définition 2.3 Une application f : E  F est surjective si, pour tout y  F il existe x  E tel
que y = f(x).

En d’autres termes tout élément de F a au moins un antécédent.

Exemples. La fonction f définie par f(x) = x + 2 de ℝ dans ℝ est surjective.

Docteur Yao Aubin N’DRI Page 10


La fonction définie par g(x) = x2 de ℝ dans ℝ n’est pas surjective. Par contre la « même »
fonction considérée de ℝ dans ℝ+ est surjective. On voit donc qu’il faut bien préciser les
ensembles de départ et d’arrivée pour parler de surjectivité et d’injectivité.

2.2.2 Bijection

Définition 2.4 Une application f : E  F est bijective si elle est à la fois injective et surjective.
En d’autres termes tout élément de F a exactement un antécédent.

Exemple La fonction f de ℝ → ℝ donnée par x x + 2 est une bijection ; de même la



fonction x log(x) est une bijection de ℝ+ → ℝ.

Lorsque f : E  F est une bijection, on peut définir une application de F dans E par la loi qui
à y associe l’unique élément x tel que y = f(x) (le fait que f soit bijective garantit exactement
l’existence et l’unicité d’un tel x).

Définition 2.5 On appelle bijection réciproque d’une bijection f et on note 𝑓 −1 l’application


caractérisée par : 𝑥 = 𝑓 −1 (𝑦) ⟺ 𝑦 = 𝑓(𝑥). Il est clair que 𝑓 −1 est aussi une bijection.
1
Exemple La bijection réciproque de 𝑥 ↦ 3𝑥 + 2 est donnée par 𝑥 ↦ 3 (𝑥 − 2).
La bijection réciproque de x ln(x) de ℝ∗+ → ℝ est la fonction x exp(x) de ℝ → ℝ∗+ .

Définition 2.6. Soit f : E  F une application.


i) Si A est une partie de E on appelle image directe de A par f et on note f(A),
l’ensemble :
𝑓(𝐴) = {𝑦 ∈ 𝐹 𝑡𝑒𝑙 𝑞𝑢𝑒 ∃𝑥 ∈ 𝐴, 𝑓(𝑥) = 𝑦}.

ii) Si B est une partie de F on appelle image réciproque de B par f et on note 𝑓 −1 (𝐵)
l’ensemble :
𝑓 −1 (𝐵) = {𝑥 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑓(𝑥) ∈ 𝐵}.

Proposition 2.2

i) Soit f : E  F une application, f est surjective si et seulement si F = f (E)

ii) f est injective si et seulement si f : E → f (E) est une injection.

Proposition 2.3

Soient E, F, G trois ensembles et 𝒇 ∶ 𝑬 → 𝑭, 𝒈 ∶ 𝑭 → 𝑮 deux applications. On a,

i) Si f est injective et 𝑔 injective alors 𝒈 ∘ 𝒇 est injective.


ii) Si f est surjective et g surjective alors 𝑔 ∘ 𝑓 est surjective.

iii) Si f est bijective et 𝑔 bijective alors𝑔 ∘ 𝑓 est bijective.

Docteur Yao Aubin N’DRI Page 11


3 Ensembles et cardinaux finis

Définition 3.1. Un ensemble E est fini s’il existe un entier 𝑛 ∈ ℕ et une


bijection de E vers {1, 2, . . . , n}. Cet entier n est unique et s’appelle le cardinal de
E (ou le nombre d’éléments) et est noté card(E).

Exemples

1) E = {rouge, noir} est en bijection avec {1, 2} et donc est de cardinal 2.


2) ℕ l’ensemble des entiers naturels n’est pas un ensemble fini.
3) Par définition le cardinal de l’ensemble vide est 0.

Proposition 3.1
Soient E et F des ensembles finis de cardinaux n et m respectivement, on a :

i) 𝑐𝑎𝑟𝑑(𝐸 ∪ 𝐹) = 𝑐𝑎𝑟𝑑(𝐸) + 𝑐𝑎𝑟𝑑(𝐹) − 𝑐𝑎𝑟𝑑(𝐸 ∩ 𝐹).

ii) 𝑐𝑎𝑟𝑑(𝐸 × 𝐹) = 𝑛𝑚.

iii) Soit ℱ(𝐸, 𝐹) l’ensemble des applications de E vers F alors 𝑐𝑎𝑟𝑑(ℱ(𝐸, 𝐹)) = 𝑚𝑛 .

En particulier 𝑐𝑎𝑟𝑑(𝒫(𝐸)) = 2𝑛 .

iv) Le nombre d’injection de E dans F est 0 si 𝑛 > 𝑚 et

𝑚 × (𝑚 − 1) × (𝑚 − 2) × … × (𝑚 − 𝑛 + 1) si 𝑛 < 𝑚.

v) L’ensemble des bijections de F vers F a pour cardinal

𝑛! = 𝑛 × (𝑛 − 1) × (𝑛 − 2) × … × 2 × 1.

Proposition 3.2

Soit E, F deux ensembles finis et f : E → F une application.

i) Si f est injective alors 𝑐𝑎𝑟𝑑𝐸 ≤ 𝑐𝑎𝑟𝑑𝐹 .

ii) Si f est surjective alors card E ≥ card F.

iii) Si f est bijective alors card E = card F.

Preuves

i) Supposons f injective. Notons 𝐹 ′ = 𝑓(𝐸) ⊂ 𝐹 alors la restriction 𝑓 ′ : 𝐸 → 𝐹′

Docteur Yao Aubin N’DRI Page 12


(définie par 𝑓 ′ (𝑥) = 𝑓(𝑥)) est une bijection. Donc pour chaque 𝑦 ∈ 𝐹′ est associé
un unique 𝑥 ∈ 𝐸 tel que 𝑦 = 𝑓(𝑥). Donc E et 𝐹′ ont le même nombre d’éléments.
Donc 𝑐𝑎𝑟𝑑𝐹 ′ = 𝑐𝑎𝑟𝑑𝐸. Or 𝐹 ′ ⊂ 𝐹, ainsi 𝑐𝑎𝑟𝑑𝐸 = 𝑐𝑎𝑟𝑑𝐹 ′ ≤ 𝑐𝑎𝑟𝑑𝐹.

ii) Supposons f surjective. Pour tout élément 𝑦 ∈ 𝐹, il existe au moins un


élément 𝑥 ∈ 𝐸 tel que 𝑦 = 𝑓(𝑥) et donc 𝑐𝑎𝑟𝑑𝐸 ≥ 𝑐𝑎𝑟𝑑𝐹.

iii) Cela découle de (i) et (ii).

Proposition 3.3
Soient E et F des ensembles finis de même cardinal ; soit f une application de E dans F alors
les propriétés suivantes sont équivalentes :
i) L’application f est injective.
ii) L’application f est surjective.
iii) L’application f est bijective.

4 Raisonnements logiques

4.1 Raisonnement par l’absurde


On veut montrer qu’une proposition P est vraie. On suppose que c’est sa négation non(P) qui
est vraie et on montre que cela entraîne une contradiction logique. On en conclut que P est vraie.

Remarque. Concrètement parlant, on veut montrer par l’absurde que la proposition


P : « P1 ⇒ Q1 » est vraie : on suppose à la fois que P1 est vraie et que Q1 est fausse et
on cherche une contradiction. Ainsi si P1 est vraie alors Q1 doit être vraie et donc
« P1 ⇒ Q1 » est vraie.

𝑎 𝑏
Exemple. Soient a, b ≥ 0. Montrer que si = 1+𝑎 alors a = b.
1+𝑏

𝑎 𝑏
Solution. Nous raisonnons par l’absurde en supposant que = 1+𝑎 avec a ≠ b. Comme
1+𝑏
𝑎 𝑏
= 1+𝑎 , alors a(1+a) = b(1+b) donc a+a2 = b+b2 d’où a2 - b2 = b-a.
1+𝑏
Cela conduit à (a-b)(a+b) = -(a-b).

Comme a ≠ b alors a-b ≠ 0 et donc en divisant par a-b on obtient a+ b = -1.


La somme de deux nombres positifs ne peut être négative. Nous obtenons une contradiction.

𝑎 𝑏
Conclusion, si = 1+𝑎 alors a = b.
1+𝑏

4.2 Le contre-exemple

Si l’on veut montrer qu’une assertion du type " ∀𝑥 ∈ 𝐸, 𝑃(𝑥) " est vraie alors il
faut montrer que P (x) est vraie pour chaque x de E.
Par contre pour montrer que cette assertion est fausse alors il suffit de trouver
𝑥 ∈ 𝐸 tel que P (x) soit fausse. Trouver un tel x c’est trouver un contre-exemple
à l’assertion " ∀𝑥 ∈ 𝐸, 𝑃(𝑥) ".

Docteur Yao Aubin N’DRI Page 13


Exemple. Montrer que l’assertion suivante est fausse « Tout entier positif est
somme de trois carrés ».
Les carrés sont les 02, 12 , 22 , 32 ,... Par exemple 6 = 22 + 12 + 12.

Solution. Un contre-exemple est 7 : les carrés inférieurs à 7 sont 0, 1, 4 mais


avec trois de ces nombres on ne peut faire 7.

4.3 Raisonnement par Récurrence


Le raisonnement par récurrence est une méthode de résolution. Elle permet de démontrer une
propriété pour tout ou presque tout entier naturel. La question de son utilisation se pose donc
naturellement lorsqu’il est demandé de démontrer qu’une certaine propriété est vraie quel que
soit n entier naturel.

L’idée est en fait assez simple. Elle repose sur trois étapes :

● l'initialisation : démontrer que la propriété est vraie pour un certain rang n0

(qui est souvent 0 ou 1),

● l'hérédité : démontrer que si la propriété est vraie pour un rang n ≥ n0 quelconque alors elle
l’est pour le rang n + 1 (c’est-à-dire le rang juste après).

● conclusion : on affirme que la propriété est vraie pour tous les rangs supérieurs à n0.

Exemple. Montrer que pour tout 𝑛 ∈ ℕ, 2n > n.

Solution. Pour n ≥ 0, notons P(n) l’assertion suivante : 2n > n.

Nous allons démontrer par récurrence que P(n) est vraie pour tout n ≥ 0.
Initialisation. Pour n = 0 nous avons 20 = 1 > 0. Donc P(0) est vraie.

Hérédité. Fixons n ≥ 0. Supposons que P(n) soit vraie. Nous allons montrer que
P (n + 1) est vraie.
2𝑛+1 = 2𝑛 + 2𝑛 > 𝑛 + 2𝑛 car par P(n) nous avons 2n > n.

On obtient 2𝑛+1 > 𝑛 + 1 car 2n ≥ 1. Donc P (n + 1) est vraie.

Conclusion. Par le principe de récurrence P(n) est vraie pour tout n ≥0, c’est-à-
dire 2n > n pour tout n ≥ 0.

5 Formule du binôme de Newton

Définition 5.1 Le nombre de parties à k éléments d’un ensemble à n éléments est notée Cnk .

Exemple Les parties à deux éléments de {1, 2, 3} sont {1, 2}, {1, 3} et {2, 3} et donc C32 =3.

Nous allons classer les parties de {1, 2, 3, 4, 5} par nombre d’éléments, ainsi

Docteur Yao Aubin N’DRI Page 14


C50 =1 (la seule partie n’ayant aucun élément est l’ensemble vide),

C51 = 5 (il y a 5 singletons), C52 = 10 (il y a 10 paires), C53 = 10 ( il y a 10 triplets),

∁45 = 5 (il y a 5 quadruplets), C55 = 1 (la seule partie ayant 5 éléments est
l’ensemble tout entier).

Proposition 5 . 1

i) Cn0 =1, Cn1  n , Cnn  1 .


ii) Cnn  k  Cnk .
n
iii) C
k 0
k
n  2n.

Preuve i) Par exemple : C n1 = n car il y a n singletons.

ii) Compter le nombre de parties A  E ayant k éléments revient aussi à compter le nombre de

parties de la forme ∁𝐸𝐴 (qui ont donc n-k éléments), ainsi Cnn  k  Cnk .

n
iii) La formule C
k 0
k
n  2n exprime que faire la somme du nombre de parties à k éléments,

pour k= 0,..., n, revient à compter toutes les parties de E.

Proposition 5.2 Cnk  Cnk1  Cnk11 , pour 0 < k < n.

Preuve Soit E un ensemble à n éléments, 𝑎 ∈ 𝐸 et 𝐸 ′ = 𝐸\{𝑎}. Il y a deux sortes


de parties A ⊂ E ayant k éléments. Celles qui ne contiennent pas a, ce sont donc des
parties à k éléments dans 𝐸 ′ = 𝐸\{𝑎} qui a 𝑛 − 1 éléments. Il y en a donc Cnk1 .
Celles qui contiennent a, elles sont de la forme 𝐴 = {𝑎} ∪ 𝐴′ avec 𝐴′ une parie à
k-1 éléments dans 𝐸 ′ qui a n-1 éléments. Il y en a ∁𝑘−1
𝑛−1 . En conclusion, on a

Cnk  Cnk1  Cnk11 .

n!
Proposition 5.3 Cnk  pour 0 ≤ k ≤ n.
k ! n  k  !

Preuve Cela se fait par récurrence sur n. C’est clair pour n = 1. Si c’est vrai au rang
n − 1 alors écrivons Cnk  Cnk1  Cnk11 et utilisons l’hypothèse de récurrence pour Cnk11 et Cnk1
. Ainsi,

Docteur Yao Aubin N’DRI Page 15


(𝑛 − 1)! (𝑛 − 1)!
∁𝑘𝑛 = ∁𝑘𝑛−1 + ∁𝑘−1
𝑛−1 = +
𝑘! (𝑛 − 𝑘 − 1)! (𝑘 − 1)! (𝑛 − 𝑘)!

=
 n  1!  1

1
 
 k  1! n  k  1!  n  k k 

=
 n  1! 
n
 k  1! n  k  1! k  n  k 
n!
= .
k ! n  k  !

Proposition 5.4. Soient 𝒂, 𝒃 ∈ ℝ et n un entier positif alors :


n
 a  b   Cnk a n k bk .
n

k 0

Remarques

1. Le théorème est aussi vrai si a et b sont des nombres complexes.


n
2. Si a = 1 et b = 1, on obtient C
k 0
k
n  2n .

Docteur Yao Aubin N’DRI Page 16


Chapitre 2 STRUCTURES ALGEBRIQUES
Un objectif général de ce cours sera de définir les espaces vectoriels et d’en é t u dier les
premières propriétés. Pour situer ce paragraphe, disons seulement qu’un espace vectoriel
sur un corps sera défini comme un ensemble muni d’une loi interne et d’une loi externe
défini au moyen de ce corps.
Nous donnons ainsi dans ce paragraphe les définitions de quelques structures
algébriques de base : groupes, groupes commutatifs, anneaux, anneaux commutatifs,
corps, espaces-vectoriels sur un corps.

Il s’agit d’un paragraphe qui servira de références dans le cours. Dans un premier
temps, nous attendons que l ’ é t u d i a n t lise le sous-paragraphe 2 sur les groupes qui
n’est pas facile et se pose quelques questions à son sujet ...

Concernant les applications des notions de ce cours en sciences, indiquons par une
flèche quelques- unes des plus marquantes :

• Algèbre → informatique ;

• Théorie des groupes → chimie ;

1. Lois de Compositions Internes

Définition 1 .1. Soit E un ensemble, on appelle loi de composition interne sur E, toute
application ⋆ de 𝐸 × 𝐸 dans E.

Un sous ensemble F de E est dit stable par rapport à la loi ⋆ si : ∀ a, b ∈ F, a ⋆ b ∈ F.

Exemple 1.1. Dans R, l’addition (𝑥, 𝑦) ↦ 𝑥 + 𝑦 et la soustraction (𝑥, 𝑦) ↦ 𝑥 − 𝑦 sont des


lois de composition internes.

Exemple 1.2. Les applications d’un ensemble non vide E dans P(E) l’ensemble des parties de
E suivantes, (𝐴, 𝐵) ↦ 𝐴⋃𝐵 et (𝐴, 𝐵) ↦ 𝐴⋂𝐵 sont des lois de composition internes.

Exemple 1.3 Soit A un ensemble et E = P(A), alors l’intersection et la réunion d’ensembles


sont deux lois de compositions internes dans E car : ∀ X, Y ∈ P(A),
𝑋 ∩ 𝑌 ⊂ 𝑋 ⊂ 𝐴 et on a ∀ 𝑥 ∈ 𝑋 ∪ 𝑌 ⇒ 𝑥 ∈ 𝑋 ou 𝑥 ∈ 𝑌 ⇒ 𝑥 ∈ 𝐴 ou 𝑥 ∈ 𝐴 ⇒ 𝑥 ∈ 𝐴.
Donc 𝑋 ∪ 𝑌 ⊂ 𝐴, ce qui montre que et sont des lois de compositions internes dans
P(A).

Exemple 1.4 Soit F = {{a, b}, {a, c}, {b, c}} ⊂ P{a, b, c}.
F n’est pas stable par rapport à l’intersection et la réunion, car :
∃ 𝑋 = {𝑎, 𝑏}, 𝑌 = {𝑎, 𝑐} ∈ 𝐹 ; 𝑋 ∩ 𝑌 = {𝑎}  𝐹
∃ 𝑋 = {𝑎, 𝑏}, 𝑌 = {𝑎, 𝑐} ∈ 𝐹 ; 𝑋 ∪ 𝑌 = {𝑎, 𝑏, 𝑐}  𝐹.

Définition 1.2 Soient ⋆ et • deux lois de composition internes sur E, on dit que :

Docteur Yao Aubin N’DRI Page 17


i) ⋆ est commutative si : ∀ a, b ∈ E, a ⋆ b = b ⋆ a ;
ii) ⋆ est associative si : ∀ a, b, c ∈ E, (a ⋆ b) ⋆ c = a ⋆ (b ⋆ c) ;
iii) ⋆ est distributive par rapport à • si :
∀ a, b, c ∈ E, a ⋆ (b • c) = (a ⋆ b) • (a ⋆ c) et (b • c) ⋆ a = (b ⋆ a) • (c ⋆ a).
iv) e ∈ E est un élément neutre à gauche (respectivement à droite) de la loi ⋆
si ∀ a ∈ E, e ⋆ a = a (respectivement a ⋆ e = a).
Si e est un élément neutre à droite et à gauche de ⋆ on dit que e est un élément neutre de ⋆.

Exemple. Soit F un ensemble et E = P(F). On considère sur E les lois de composition internes
“ ∩” et “ ∪”, alors il est très facile de montrer que :
● “ ∩” et “ ∪” sont associatives,
● “ ∩” et “ ∪” sont commutatives,
● ∅ est l’élément neutre de ∪,
● F est l’élément neutre de ∩.

Propriété 1.1 Si une loi de composition interne ⋆ possède un élément neutre à droite e′ et un
élément neutre à gauche e′′, alors e′ = e′′ et c’est un élément neutre de ⋆.

Preuve. Soit e′, respectivement e′′, un élément neutre à droite, respectivement à gauche, de ⋆,
alors e′ = e′′ ⋆ e′ car e′′ élément neutre à gauche de ⋆, e′′ = e′′ ⋆ e′ car e′ élément neutre à droite
de ⋆ ce qui montre que e′ = e′′.

Remarque. D’après cette dernière propriété, si ⋆ possède un élément neutre, alors il est unique.

Définition 1.3. Soit ⋆ une loi de composition interne sur un ensemble E admettant un élément
neutre e.
i) On dit qu’un élément a ∈ E est inversible ou symétrisable, à droite (respectivement
à gauche) de ⋆ si ∃ a′ ∈ E, a ⋆ a′ = e (respectivement a′ ⋆ a = e).
ii) a′ est dit un inverse (ou un symétrique) à droite (respectivement à gauche) de a, s’il
existe a′ ∈ E tel que a′ ⋆ a = a ⋆ a′ = e.
On dit que a est inversible (ou symétrisable) et a′ est dit un inverse (ou un symétrique) de a par
rapport à ⋆.

Remarque
● a est inversible (ou symétrisable) s’il est inversible à droite et à gauche de ⋆.
● Le symétrique d’un élément n’est pas toujours unique.

Exemple. Soit E = {a, b, γ}, on définit une loi de composition interne dans E par :

⋆ a b γ
a a b γ
b b γ a
γ γ a a
On remarque que :
i) a est l’élément neutre de ⋆.
ii) Tous les éléments de E sont inversibles avec :
– a est l’inverse de a,
– γ est l’inverse de b,
– b et γ sont des inverses de γ.

Docteur Yao Aubin N’DRI Page 18


Propriété 1.2. Soit ⋆ une loi de composition interne dans un ensemble E admettant un élément
neutre e, alors :
i). e est inversible (ou symétrisable) et son unique inverse (ou symétrique) est e.
ii). Soit a un élément de E inversible (ou symétrisable) par rapport à la loi ⋆ et a′ un inverse (ou
un symétrique) de a, alors a′ est inversible (ou symétrisable) et a est un inverse (ou un
symétrique) de a′.

Propriété 1.3 Soit ⋆ une loi de composition interne dans E, associative et admettant un
élément neutre e. Si un élément x ∈ E admet x1 un inverse (ou symétrique) à droite et x2 un
inverse (ou symétrique) à gauche, alors x1 et x2 sont identiques.

Preuve. Soient x1 un inverse (ou un symétrique) à droite de x et x2 un inverse (ou un


symétrique) à gauche de x, alors
x ⋆ x1 = e et x2 ⋆ x = e.
Donc x1 = e ⋆ x1
= (x2 ⋆ x) ⋆ x1
= x2 ⋆ (x ⋆ x1) car ⋆ est associative
= x2 ⋆ e
= x 2.

Remarque
– De cette propriété on déduit que l’associativité de la loi assure l’unicité du symétrique d’un
élément s’il existe
– D’après cette propriété on déduit que la loi définie dans l’exemple ci-dessus n’est pas
associative.
Pour s’en convaincre, on remarque que : (b ⋆ b) ⋆ γ = γ ⋆ γ = a et b ⋆ (b ⋆ γ) = b ⋆ a = b donc
(b ⋆ b) ⋆ γ ≠ b ⋆ (b ⋆ γ) ce qui montre que la loi ⋆ n’est pas associative.

Conventions : Etant donnée une loi de composition interne associative dans un ensemble E,
– Si la loi est notée +, son élément neutre est noté 0E ou 0, et on parle du symétrique de a qu’on
note a′ = - a.
– Si la loi est notée multiplicativement, son élément neutre est noté 1E ou 1, et on parle de
l’inverse de a qu’on note a '  a 1 .

Propriété 1.4. Soit ⋆ une loi de composition interne dans un ensemble E, associative et
admettant un élément neutre e, alors si a et b sont deux éléments inversibles (symétrisables) il
en sera de même de (a ⋆ b) et on a : (a ⋆ b) -1 = b -1 ⋆ a -1.

Preuves : Soient a, b ∈ E deux éléments inversibles, alors

(a ⋆ b) ⋆ (b -1 ⋆ a -1) = (a ⋆ (b ⋆ b -1)) ⋆ a -1 (car ⋆ est associative).

= (a ⋆ e) ⋆ a -1 = a ⋆ a -1 = e
De la même manière on montre que (b -1 ⋆ a -1) ⋆ (a ⋆ b) = e, d’où on déduit que (a ⋆ b) est
inversible et que
(a ⋆ b) -1 = b -1 ⋆ a -1.

Docteur Yao Aubin N’DRI Page 19


2. Structure de Groupe

Définition 2.1. On appelle groupe, tout ensemble non vide G muni d’une loi de composition
interne ⋆ tel que :
i) ⋆ est associative ;
ii) ⋆ possède un élément neutre e ;
iii) Tout élément de E est symétrisable.

Si de plus ⋆ est commutative, on dit que (G, ⋆) est un groupe commutatif, ou groupe Abélien.

Exemple . Un exemple illustratif de groupe abélien est (ℤ,+).

x y
Exercice. On définit l’opération ⋆ par : x, y  1,1 , x⋆y  .
1  xy
Montrer que (] − 1, 1[, ⋆) est un groupe abélien.

Sous-groupes : Soit ( G, ⋆) un groupe, o n a p p e l l e s o u s - g r o u p e d e ( G, ⋆) t o u t


s o u s - e n s e m b l e n o n v i d e ( H , ⋆) d e G vérifiant les trois propriétés :
i) Pour tout x, y ∈ H, x ⋆ y ∈ H.
ii) Le neutre de G est dans H.
iii) Pour tout x ∈ H, le symétrique x’ de x est dans H.

E x e r c i c e : L’ensemble noté 5ℤ des entiers relatifs multiple de 5 est un sous-groupe du


groupe ( ℤ, +).

Propriété 2.1 : Soit ( G, ⋆) un groupe, e t H u n e p a r t i e d e G . L e s p r o p r i é t é s


suivantes sont équivalentes :
i) ( H, ⋆) est un sous-groupe de G.
ii) H est non vide et les relations x ∈ H et y ∈ H entrainent x ⋆ y -1 ∈ H.

Exercice. Soit (G, ⋆) un groupe et 𝐺′ = {𝑥 ∈ 𝐺, (∀𝑦 ∈ 𝐺, 𝑥 ⋆ 𝑦 = 𝑦 ⋆ 𝑥)}, alors G′


est un sous-groupe de G.

Morphismes de groupes : un morphisme de groupes ou homomorphisme de groupes est une


application entre deux groupes qui respecte les structures des groupes. Plus précisément,
si (G, ⋆) et (G’,●) sont deux groupes d’ él ém e nt s neutres respectifs e et e’, une application
𝑓 ∶ 𝐺 → 𝐺’ est un morphisme de groupes lorsque pour tout

𝑥, 𝑦 ∈ 𝐺 ∶ 𝑓(𝑥) ∗ 𝑓(𝑦) = 𝑓(𝑥)●𝑓(𝑦).

Remarque
Les deux propriétés suivantes sont alors des conséquences immédiates de la définition
d’un morphisme de groupes et de la définition d’un groupe :
−1
𝑓(𝑒) = 𝑒 ′ 𝑒𝑡 ∀ 𝑥 ∈ 𝐺, 𝑓(𝑥 −1 ) = (𝑓(𝑥)) .

Docteur Yao Aubin N’DRI Page 20


Exemple.
Etant donnés les groupes (ℝ,+) et (ℝ∗ , ·), alors les applications

𝑓 : (ℝ,+) → (ℝ∗ , ·), 𝑥 ↦ exp(𝑥)


et g : (ℝ∗ , ·) → (ℝ,+) , 𝑥 ↦ 𝑙𝑛|𝑥| sont des morphismes de groupes.

Définition 2.2. Soit 𝑓 ∶ 𝐺 → 𝐻 un homomorphisme de groupes.


i) On appelle noyau de f l’ensemble

𝐾𝑒𝑟(𝑓) = 𝑓 −1 (𝑒𝐻 ) = { 𝑎 ∈ 𝐺, 𝑓(𝑎) = 𝑒𝐻 }.

ii) On appelle l’image de f l’ensemble 𝐼𝑚𝑓 = 𝑓(𝐺) = {𝑓(𝑎), 𝑎 ∈ 𝐺 }.


Propriété 2.2 Soit f : G → H un homomorphisme de groupes, alors
1) L’image d’un sous-groupe de G est un sous-groupe de H.
2) L’image réciproque d’un sous-groupe de H est un sous-groupe de G.

Preuve
1). Soit G′ un sous-groupe de G et montrons que f(G′) vérifie les deux conditions de la
caractérisation des sous-groupes.
i) Comme G′ est un sous-groupe de G, alors e ∈ G′ donc f(e) ∈ f(G′), par suite f(G′) ≠ ∅.
ii) Soient a, b ∈ f(G′), alors il existe x, y ∈ G′ tels que a = f(x) et b = f(y), donc d’après la
deuxième propriété on aura
a ⋆ b -1 = f(x) ⋆ (f(y)) -1 = f(x) ⋆ f(y -1) = f(x • y -1) et comme G′ est un sous-groupe de G alors
(x • y -1) ∈ G′, par suite
a ⋆ b -1 = f(x • y -1) ∈ f(G′) de i) et ii) on déduit que f(G′) est un sous-groupe de H.

2). Soit H′ un sous-groupe de H, alors


i) On a, f(e) = eH et comme H′ est un sous-groupe de H alors eH ∈ H′ donc e ∈ f -1(H′).
ii) Soient x, y ∈ f -1(H′), alors f(x), f(y) ∈ H′ et comme H′ est un sous-groupe de G alors f(x) ⋆
(f(y)) -1 ∈ H′ et on déduit que f(x • y -1) = f(x) ⋆ f(y -1) = f(x) ⋆ (f(y)) -1 ∈ H′ ce qui montre que
(x • y -1) ∈ f -1(H′).
De i) et ii) on déduit que f -1(H′) est un sous-groupe de G.

Remarque. Comme cas particuliers des propriétés, Im(f) est un sous-groupe de (H, ⋆) et
Ker(f) est un sous-groupe de (G, •).

Propriété 2.3. Soit f : G → H un homomorphisme de groupe, alors


1) f est injective si et seulement si Ker (f) = {e}.
2) f est surjective si et seulement si Im(f) = H.
3) f est un isomorphisme si et seulement si f -1 existe et est un homomorphisme de groupe de
H dans G.

3. Structure d’Anneaux

Définition 3.1
On appelle anneau, tout ensemble A muni de deux lois de composition internes « + » et « • »
telles que :
1) (A, +) est un groupe abélien (on notera 0 ou 0A l’élément neutre de +),

Docteur Yao Aubin N’DRI Page 21


2) La loi multiplicative « • » est associative (∀ 𝑥, 𝑦, 𝑧 ∈ 𝐴, (x•y) •z = x• (y•z)) e t
distributive par rapport à « + » (∀ 𝑥, 𝑦, 𝑧 ∈ 𝐴, 𝑥 • (𝑦 + 𝑧) = 𝑥 • 𝑦 + 𝑥 • 𝑧 et
(𝑦 + 𝑧) • 𝑥 = 𝑦 • 𝑥 + 𝑧 • 𝑥).
Si de plus « • » est commutative, on dit que (A,+, •) est un anneau commutatif.

Conventions : (A, +) étant un groupe, alors tous les éléments de A sont symétrisables et on
convient de noter - x le symétrique d’un élément x ∈ A.
Si « • » possède un élément neutre, on le note 1 ou 1A et on dit que l’anneau (A,+, •) est
unitaire ou unifère.
Dans un tel anneau, on dit qu’un élément est inversible s’il l’est par rapport à la deuxième loi
« • ».
L’inverse d’un élément x ∈ A est noté 𝑥 −1 .

Règles de Calcul dans un Anneau

Soit (A,+, •) un anneau, alors on a les règles de calculs suivantes :

Propriété 3.1. Pour tous x, y et z ∈ A,


1) 0A • x = x • 0A = 0A
2) x • (-y) = (-x) • y = -(x • y)
3) x • (y - z) = (x • y) - (x • z)
4) (y - z) • x = (y • x) - (z • x).

Sous Anneaux

Définition 3.2. On appelle sous anneau de (A, +, •), tout sous ensemble A′ de A tel que muni
des restrictions des lois « + » et « • » est anneau.
Si A est un anneau unitaire et 1A ∈ A′, on dit que A′ est sous anneau unitaire.

On a la caractérisation suivante des sous anneaux.

Propriété 3.2. Un sous ensemble A′ de A est un sous anneau si et seulement si :


1) A′ ≠ ∅,
2) ∀ x, y ∈ A′, (x - y) ∈ A′
3) ∀ x, y ∈ A′, (x • y) ∈ A′.

Homomorphismes d’Anneaux
Soient (A, +, •) et (B, ⊕, ⊗) deux anneaux et f : A → B.

Définition 3.3. On dit que f est un homomorphisme d’anneaux si :


∀ 𝑥, 𝑦 ∈ 𝐴, 𝑓(𝑥 + 𝑦) = 𝑓(𝑥) ⊕ 𝑓(𝑦) 𝑒𝑡 𝑓(𝑥 • 𝑦) = 𝑓(𝑥) ⊗ 𝑓(𝑦).

Remarque
– Si A = B on dit que f est un endomorphisme d’anneau de A.
– Si f est bijective, on dit que f est un isomorphisme d’anneaux
– Si f est bijective et A = B, on dit que f est un automorphisme d’anneaux.

Remarque
On sait que l’image de l’élément neutre du groupe de départ d’un homomorphisme de groupe
est l’élément neutre du groupe d’arrivée. Par contre, l’image de l’élément unité de l’anneau de

Docteur Yao Aubin N’DRI Page 22


départ par un homomorphisme d’anneau n’est pas toujours l’élément unité de l’anneau
d’arrivée. Pour s’en convaincre, il suffit de prendre dans un anneau unitaire (A,+, ·), où 0A ≠
1A , l’application f : A → A définie par f(x) = 0A pour tout x ∈ A.
Ce contre-exemple nous amène à poser la définition suivante.

Définition 3.4. Soient A et B deux anneaux unitaires, on dit qu’un homomorphisme


d’anneaux f de A dans B est unitaire si 𝑓(1𝐴 ) = 1𝐵 .

Proposition 4.1. Soit 𝑓 ∶ 𝐴 → 𝐵 un homomorphisme d’anneaux, alors


– f est injectif si et seulement si ker(f) = {0A}.
– Si A et B sont deux anneaux unitaires et f un homomorphisme d’anneaux surjectif, alors f
est unitaire.

4. Structure de Corps

Définition 4.1 On appelle corps K tout anneau non nul dans lequel tout élément non nul
est inversible. On dit qu’un corps un commutatif si sa deuxième loi « • » est commutative.

Exemple : Munis des o p é r a t i o n s usuelles d’addition et de multiplication, l’ensemble


ℝ des nombres réels ou C des nombres complexes est un corps.

Sous-corps
Soit K un corps et K’ un sous-ensemble de K. On dit que K’ est un sous-corps de K si :
i) K’ est un sous-anneau de K,
ii) Les relations 𝑥 ≠ 0 𝑒𝑡 𝑥 ∈ 𝐾’ ⇒ 𝑥 −1 ∈ 𝐾′ .

Exemple
L’ensemble ℚ des nombres rationnels est un sous-corps du corps des nombres réels.

Morphismes de corps
Un morphisme de corps ou homomorphisme de corps est une application entre deux corps
qui respecte les structures de corps. Ainsi, si K et K’ sont deux corps, une application

𝑓 ∶ 𝐾 → 𝐾’ est un morphisme de corps si :

• ∀ 𝑥, 𝑦 ∈ 𝐾, 𝑓(𝑥 + 𝑦) = 𝑓(𝑥) + 𝑓(𝑦).


• ∀ 𝑥, 𝑦 ∈ 𝐾 , 𝑓(𝑥𝑦) = 𝑓(𝑥)𝑓(𝑦) .
• 𝑓(1) = 1.

Exemple

La conjugaison est un morphisme du corps des nombres complexes vers lui-m êm e.

5. Structures d’espaces vectoriels

Pour situer ce paragraphe, disons seulement qu’un espace vectoriel sur un e n s e m b l e


𝐾 = ℝ 𝑜𝑢 ℂ ( a p p e l é corps) sera défini comme un ensemble muni d’une loi interne et
d’une loi externe défini au moyen de ce corps.

Docteur Yao Aubin N’DRI Page 23


L’exemple type de l’espace vectoriel, au niveau de ce cours, est l’espace ℝ𝑛 . Nous noterons le
plus souvent 𝑢 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) un élément (un vecteur) de ℝ𝑛 et nous appellerons
coordonnées du vecteur 𝑢 les nombres réels 𝑥𝑖 . On utilisera toutefois aussi, de temps en temps,
la notation en vecteur colonne
𝑥1
𝑢 = ( ⋮ ).
𝑥𝑛

On dispose de deux opérations fondamentales sur ℝ𝑛 .

L’addition : si 𝑢 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) et 𝑣 = (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) alors

𝑢 + 𝑣 = (𝑥1 + 𝑦1 , 𝑥2 + 𝑦2 , … , 𝑥𝑛 + 𝑦𝑛 )

La multiplication par un scalaire : si 𝑢 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) 𝑒𝑡 𝛼 ∈ ℝ alors

𝛼𝑢 = (𝛼𝑥1 , 𝛼𝑥2 , … , 𝛼𝑥𝑛 ).

Ces opérations sont aussi valables dans ℂ𝑛 .

5.1 Définition et exemples

Définition 5.1 On appelle espace vectoriel sur 𝐾 ou 𝐾 -espace vectoriel un ensemble E sur

lequel on a défini deux lois de composition :

i) une loi interne dite addition, notée + ; une application E × E → E, (u, v) u + v,

vérifiant :
● associativité : ∀ 𝑢, 𝑣, 𝑤 ∈ 𝐸 , (u + v) + w = u + (v + w). Cet élément est alors noté

u + v + w.

● existence d’un élément neutre : il existe un é l é ment noté 0 ∈ 𝐸 (ou ⃗0, ou encore
0E) tel que pour tout 𝑢 ∈ 𝐸, u + 0 = 0 + u = u.

● existence d’un opposé : pour tout é l é ment 𝑢 ∈ 𝐸, il existe un é l é ment noté

−𝑢 ∈ 𝐸, appelé opposé de u tel que u + (-u) = (-u) + u = 0.

● commutativité : ∀ 𝑢, 𝑣 ∈ 𝐸, 𝑢 + 𝑣 = 𝑣 + 𝑢.

ii) une loi externe dite multiplicative de domaine 𝐾 ; application K× E → E, (λ, u) λu

vérifiant : ∀ u ∈ E et 𝜆, 𝛼 ∈ 𝐾 : 1u = u , λ(µu) = (λµ)u.

∀ u, v ∈ E et λ, µ ∈ K : (λ + µ)u = λu + µu , λ(u + v) = λu + λv.

Les éléments de E sont appelés vecteurs et ceux de 𝐾 scalaire.

Docteur Yao Aubin N’DRI Page 24


Exemples

1) Le corps K lui- même muni de son addition et de sa multiplication est un K-espace


vectoriel.

2) L’ensemble 𝐾 𝑛 des n-uplets d’éléments de K est un K-espace vectoriel pour ses


opérations d’addition et de multiplication par un é l é ment de K :
(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) + (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) = (𝑥1 + 𝑦1 , 𝑥2 + 𝑦2 , … , 𝑥𝑛 + 𝑦𝑛 ) et

𝛼𝑢 = (𝛼𝑥1 , 𝛼𝑥2 , … , 𝛼𝑥𝑛 ).


3) L’ensemble ℂ des nombres complexes est un ℝ-espace vectoriel muni de son addition
et de la multiplication naturelle par les nombres réels.

4) L’ensemble des solutions d’un système linéaire homogène est un espace vectoriel (comme
c’est un sous-ensemble de 𝐾 𝑛 l’addition et la multiplication par un scalaire sont déjà définies).

5) L’espace des fonctions de ℝ dans ℝ est un ℝ - espace vectoriel : si f, g sont des fonctions et
α un réel, on pose (𝑓 + 𝑔)(𝑥) = 𝑓(𝑥) + 𝑔(𝑥) et (𝛼𝑓)(𝑥) = 𝛼𝑓(𝑥).

6) L’espace des fonctions continues de ℝ dans ℝ est un ℝ -espace vectoriel. En effet la somme
de deux fonctions continues est continue de même que le produit par une constante.

7) L’espace des fonctions f(t) deux fois dérivables de ℝ dans ℝ et vérifiant l’équation
différentielle : 𝛼(𝑡)𝑓"(𝑡) + 𝛽(𝑡)𝑓′(𝑡) + 𝛾(𝑡)𝑓(𝑡) = 0 est un ℝ -espace vectoriel.
En effet la somme de deux fonctions deux fois dérivables et vérifiant l’équation différentielle
est encore deux fois dérivable et vérifie l’équation différentielle.

8) L’ensemble K[X] des polynômes forme un K-espace vectoriel.

5.2 Sous-espace vectoriel

Définition 5.2 Soit E un K-ev et F une partie de E. On dit que F est un sous espace vectoriel
de E (ou sev) si :
● 0𝐸 ∈ 𝐹 ; ;
● F est stable par rapport à l’addition : u, v ∈ F ⇒ u + v ∈ F ;
● F est stable par rapport à la multiplication : λ ∈ K, u ∈ F ⇒ λu ∈ F.

Proposition 5.1 F est un sev de E si et seulement si :


● 0𝐸 ∈ 𝐹 ;
● u, v ∈ F ; α, β ∈ K alors αu + βv ∈ F.

Exemples

1) E et l’ensemble {0E} réduit au zéro de E sont des sous-espaces vectoriels de E.

2) L’ensemble des nombres réels est un sous-espace vectoriel du ℝ-espace vectoriel des

Docteur Yao Aubin N’DRI Page 25


nombres complexes.

Remarque. Une partie quelconque F d’un espace vectoriel E n’est pas toujours un sous -
espace vectoriel, par contre elle sera toujours inclue dans un sev de E. Enfin une partie F d’un
espace vectoriel E peut ne pas être un sous espace vectoriel de E mais être un espace vectoriel
(en changeant bien sûr les lois d’addition et ou de multiplication par un scalaire).

5.3 Sous espace vectoriel engendré par une partie de E

Définition 5.3 Soit u1, . . . , up ∈ E et λ1, . . . , λp ∈ K.

Le vecteur λ1 u1 + λ2 u2 + · · · + λp up est a p p e l é u n e c o m b i n a i s o n l i n é a i r e d e
u1, u2 , . . ., up. On note Vect(u1 , u2 , . . . , up) l’ensemble des combinaisons linéaires de u1 ,
u2 , . . . , up .

Exemple : Dans ℝ𝑛 , tout vecteur est combinaison linéaire de la base canonique :


e1 = (1 ; 0 ;…; 0) ; e2 = (0; 1;… ; 0) ; … ; en = (0 ; … ; 0 ; 1).

Alors x = (x1 ; … ; xn) = x1e1 +… + xnen.

Proposition 5.2 Soit u1, . . ., up ∈ E, alors Vect(u1 , u2 , . . . , up ) est un sous-espace

vectoriel de E appelé sous-espace vectoriel engendré par u1 , . . . , up . C’est le plus petit


avec cette propriété.

Définition 5.4 Soit P une partie de E un espace vectoriel. On pose vect(P) = {x ∈ E : il existe

e1 ; … ; en ∈ P tel que x = λ1e1 +…+_λnen} c’est à dire l’ensemble des combinaisons linéaires

des éléments de P. C’est le plus petit sev de E contenant P.

5.3 Somme et intersection de deux sev

Définition 5.5

Soient F et G deux ensembles. Alors la somme

𝐹 + 𝐺 = {𝑧, 𝑧 = 𝑥 + 𝑦 𝑎𝑣𝑒𝑐 𝑥 ∈ 𝐹 𝑒𝑡 𝑦 ∈ 𝐺}.

Proposition 5.3

Soient F et G deux sev d’un K-ev E. Alors :


1) F ∩ G est un sev de E.
2) F ∪ G n’est pas en général un sev de E. Mais F + G est un sev de E et c’est le plus petit
contenant F ∪ G.

Docteur Yao Aubin N’DRI Page 26


3) Le complémentaire E-F n’est pas un sev de E.

Preuve : Montrons par exemple que l’intersection de deux sous-espaces vectoriels d’un
espace vectoriel E est un sous-espace vectoriel de E. Soit F1 et F2 deux sous-espaces
vectoriels de E. Tout d’abord 0E ∈ F1, car F1 est un sous-espace vectoriel de E. De
même, 0E ∈ F2. Ainsi, 0E ∈ F1∩ F2 et F1∩ F2 est donc non vide. Soit u, v ∈ F1 ∩ F2
et λ ∈ K. En particulier, u et v sont deux é l é m ents de F1 . Comme F1 est un sous-
espace vectoriel de E : u + v ∈ F1 et λu ∈ F1 . De même, on montre que u + v ∈ F2 et λu
∈ F2 . Ainsi, u + v ∈ F1∩ F2 et λu ∈ F1∩ F2 . Cela montre que F1∩ F2 est un sous-espace
vectoriel de E.

Remarques
L’union de deux sev n’est pas un espace vectoriel à cause de la non stabilité par rapport à

l’addition. D’où la définition de la somme de deux sev.

Pour montrer qu’un ensemble n’est pas un sev il suffit d’exhiber un contre-exemple, alors que
pour montrer que l’on est en présence d’un ev il faut montrer les propriétés pour tous les
éléments.

Proposition 5.4.
Soient P et Q deux parties de E. Alors vect(P∪ Q) = vect(P) + vect(Q).

5.4 Somme directe, Supplémentaire

Définition 5.6 Soient F et G deux sev d’un K-ev E. On dit que F et G sont en sommes directes
si 𝐹 ∩ 𝐺 = {0} 𝑒𝑡 𝐹 + 𝐺 = 𝐸.

Notation : Si F et G sont en somme directe on note F + G = F⨁ G.

Définition 5.7 Soit F un sous espace vectoriel d’un K-ev E. G est un supplémentaire de F si F
et G sont en sommes directes.

Remarques
1) Il y a deux conditions à vérifier : F ∩ G = {0} et F + G = E.
2) Attention : Il n’y a pas unicité du supplémentaire d’un sev donné.
3) Attention : G supplémentaire n’est pas le complémentaire de F dans E.

5.5 Famille g é n é r a t r i c e , famille libre et base

Dans cette sous-section, E désignera un K-espace vectoriel.

Définition 5.5.1 Soit v1 , v2, . . ., vp ∈ E.


a) On dit que la famille (v1, v2 , . . ., vp ) est une famille génératrice de E, si tout vecteur
de E est combinaison linéaire de v1 , v2 , . . ., vp .

Docteur Yao Aubin N’DRI Page 27


Autrement dit, si E = Vect(v1 , v2 , . . . , vp ) ou encore si pour tout v ∈ E, il existe

λ1 , . . . , λp ∈ K tel que : v = λ1 v1 + λ2 v2 + · · · + λp vp .

b) On dit que la famille (v1 , v2 , . . . , vp ) est libre, si pour tout λ1 , . . . , λp ∈ K :

λ1 v1 + λ2 + · · · + λp vp = 0 ⇒ λ1 = λ2 = . . . = λp = 0.

c) On dit que la famille (v1, v2 , . . . , vp ) est une base de E, si cette famille est libre et
génératrice.

Remarque. Une famille non libre est dite liée.

On notera que dire que la famille (v1 , v2 , . . . , vp ) est liée, c’est dire qu’il existe une
« relation non triviale » entre les vi , c’est à dire des éléments λ1 , . . . , λp ∈ K non tous
nuls tels que : λ1v1+ λ2v2 + · · · + λp vp = 0.

Exemples

1) Les vecteurs e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), ..., en = (0, 0, . . . , 0, 1) de Kn


forment une base du K-espace vectoriel Kn appelée base canonique de Kn .
2) Les nombres complexes 1 et i forment une base du R-espace vectoriel C des
nombres complexes.

Notons qu’une famille réduite à un vecteur est libre si et seulement si ce vecteur est non
nul.

Exercice Considérons les vecteurs v1 = (−2, 1, 0, 0, 0) ; v2 = (3, 4, −1, 0, 0) ; v3 = (1, 3,


7, −2, 17) de R5 . Montrer que la famille (v1, v2, v3) est une famille libre de R5 .

Solution. Soit a, b, c ∈ R, on remarque que : av1+ bv2 + cv3 = (−2a + 3b + c ; a + 4b +


3c ; −b + 7c ; −2c ; 17c).

Ainsi, si av1 + bv2 + cv3 = 0R5, les réels a, b, c sont solutions du système :

2a 3b c 0
 a 4b 3c 0

 .
 b 7c 0
 17c 0

On en déduit c = 0, puis b = 0 et enfin a = 0. Cela montre que (v1, v2 , v3) est une
famille libre de R5 .

Docteur Yao Aubin N’DRI Page 28


Exercice Considérons les vecteurs v1 = (1, 2), v2 = (−2, 1) e t v3 = (1, 1) de R2.
Montrons que la famille (v1, v2 , v3) est une famille liée de R2.

Solution Nous devons montrer qu’il existe trois réels a, b, c non tous nuls tels que :

(E) av1+ bv2 + cv3 = 0R3.

Allons y et cherchons tous les triplets de réels (a, b, c) tels que :

av1+ bv2 + cv3= 0R3.

En remplaçant les vi par leurs valeurs, on trouve :

av1+ bv2 + cv3 = (a − 2b + c, 2a + b + c).

Ainsi, l’équation E est é quivalente au système d’équations linéaires :

a 2b c  0
 .
 2 a b  c  0

Résolvons ce système en appliquant avec soin l’algorithme de résolution. Le système E

a 2b c  0
a même solution que le système triangulé :  .
 5b c  0
La variable c est la seule variable libre de ce système triangulé. En remontant les
−3 1
équations, on trouve que l’ensemble S des triplets cherchés est : {𝑐 ( 5 , 5 , 1) , 𝑐 ∈ 𝑅}.

Ce système a une infinité de solutions. Il a donc au moins une solution (a, b, c) avec a, b,
c non tous nuls (dite solution non triviale). Donc, la famille (v1, v2, v3) est l i é e . Par
 3 1 
exemple, en prenant c=1, on obtient la solution  , ,1 .
 5 5 

3 1
Ainsi, v1  v2  v3  0 .
5 5

Proposition 5.5.1 L'algorithme de résolution d'un système d'équations linéaires homogènes


de n variables à coefficients dans K fournit une base de l'espace vectoriel de ses solutions.

Exercice D é t e r m i n e r une base de l’espace vectoriel des solutions du système


 x1  x2  x3  x4  0
d’équations linéaires homogènes à coefficients réels : (E )  .
 x1  x2 2 x3 18 x4  0

Docteur Yao Aubin N’DRI Page 29


Solution Les variables sont x1, x2, x3, x4 o r d o n n é e s naturellement. Les deux
équations de (E) sont d’ordre 1. Le système (E) est donc ordonné. Faisons tourner
l’algorithme de triangulation. Le systéme (E) a mêmes

 x1  x2  x3  x4  0
solutions que le système : ( E’)  .
  x3 17 x4  0

Résolvons (E’). La dernière équation donne : x3 = −17x4. En remplaçant dans la


première, on obtient : x1 = −x2+ 16x4. Ainsi, nous obtenons l’ensemble F des solutions
de (E) : F = {(−x2 + 16x4 , x2, −17x4, x4) tels que x2, x4 ∈ R}

= {x2 (−1, 1, 0, 0) + x4(16, 0, −17, 1) tels que x2, x 4 ∈ R}.

Ainsi, F = vect((−1, 1, 0, 0), (16, 0, −17, 1)). La famille ((−1, 1, 0, 0), (16, 0, −17, 1)) est libre.

En effet, si x2 (−1, 1, 0, 0) + x4 (16, 0, −17, 1) = (−x2 + 16x4 ; x2 ; −17x4 ; x4) = 0,

c’est que x2 = x4 = 0. La famille (−1, 1, 0, 0), (16, 0, −17, 1) génératrice de F et libre est
donc une base de F.

5.6 Coordonnées d’un vecteur dans une base

Dans cette sous-section, E désignera un K-espace-vectoriel muni d’une base

B = (e1 , e2 , . . . , en ). Soit u ∈ E, par définition d’une base de E, il existe des scalaires λ1 ,


. . . λn tels que u = λ1 e1 + · · · + λn en .

Montrons que cette famille de scalaires λ1 , . . . λn est unique. Pour ce faire, soit 1' , , n' une
deuxième famille de scalaires telle que u  1'e1   n' en . Par différence, on obtient :
u  (1  1' )e1   (n  n' )en =0.

Comme la famille (e1 , e2 , . . . , en ) est libre, il en résulte que 1  1'  0, , n  n'  0 . D’où
l’unicité de la décomposition de u. On peut donc donner la définition,

Définition 5.6.1 (coordonnées d’un vecteur dans une base) Soit B = (e1 , e2 , . . . , en ) une
base d’un K-espace- vectoriel E. Tout vecteur u de E s ’ é c r i t de façon unique

u = x1 e1 + · · ·+ xn en où x1 , . . . , xn ∈ K. Les scalaires x1 , . . . , xn s’appellent les


coordonnées de u dans la base B. Le scalaire xi est appelé la i-è̀me coordonnée de u dans
la base B.

Si E possède une base B de n éléments, notons que deux vecteurs de E sont égaux si et
seulement si leurs n coordonnées dans B sont égales.

Docteur Yao Aubin N’DRI Page 30


Proposition 5.6.1 Soit u, v ∈ E, (x1 , . . . , xn ) les coordonnées de u dans la base
B, (y1 , . . . , yn ) les cordonnées de v dans la base B et soit λ ∈ K. Alors u + v a pour
cordonnées (x1 + y1 , . . . , xn + yn ) dans la base B et λu a pour cordonnées

(λx1 , . . . , λxn ) dans la base B.

Preuve : Par définition des xi et yi : u = x1 e1 + · · · + xn en , v = y1 e1 + · · · + yn


en. Il en résulte que u + v = (x1 + y1 )e1 + · · ·+ (xn + yn )en . Ainsi u + v a bien pour
cordonnées (x1 + y1 , . . . , xn + yn ) dans la base B.

De même, λu = (λx1)e1 + · · · + (λxn )en . Et λu a bien pour cordonnées

(λx1 , . . . , λxn ) dans la base B.

5.7 Dimension d’un K-espace vectoriel

Proposition 5.7.1 Soit E un K-espace-vectoriel qui possède une base de n vecteurs,


alors toute famille de plus de n + 1 vecteurs de E est liée.

Définition 5.7.1 Soit E un K-espace-vectoriel qui possède une base de n vecteurs,


alors toute base de E a n é́léments. Cet entier n, noté dimKE, est appelé la dimension
de E.

Proposition 5.7.2 Soit E un K-espace-vectoriel non réduit à zéro admettant une


famille génératrice. Alors, on peut extraire de cette famille génératrice une base de E.

Preuve : Soit (v1 , . . . , vp ) cette famille génératrice.

Cas p = 1: Le vecteur v1 engendre E. Comme E est non réduit à zéro, le vecteur v1


n’est pas nul. La famille réduite à l’élément v1 est donc libre. C’est donc une base de
E.

Cas p> 1 : Si la famille (v1 , . . . , vp ) est libre, puisqu’elle est supposée génératrice, c’est une
base de E. Sinon, il existe a1 , . . . , ap ∈ K non tous nuls tels que :
a1 v1 + a2 v2 + · · · + ap vp = 0.
Quitte à renuméroter la famille, on peut supposer que a1 est non nul. On en déduit :

a2 ap
v1   v2   vp .
a1 a1

Docteur Yao Aubin N’DRI Page 31


Par hypothèse, tout vecteur u de E s’écrit : u  1v1   pvp où 1 , ,  p  K . D’où

 a   a 
u   2  1 2  v2     p  1 p  v p .
 a1   a1 

Ainsi, la famille (v2 , , v p ) est génératrice. En itérant ce procédé, on obtient une base de E
extraite de la famille (v1 , , vp ) .

Proposition 5.7.3 Soit E un K-espace vectoriel de dimension n, alors toute famille libre peut
être complétée en une base.

Preuve : Soit (v1 , . . . , vp ) une famille libre de vecteurs de E. On sait alors que p ≤ n
Si la famille (v1 , . . . , vp ) est génératrice, c’est une base de E. Sinon, il existe vp+1 ∈ E non
combinaison linéaire de (v1 , . . . , vp ). Considérons une relation : a1v1 + … + apvp + ap+1vp+1 =
a a
0, où ai  K. Alors ap+1 = 0, sinon v p 1   1 v1   p v p ce qui contredit l’hypothèse
a p 1 a p 1
faite sur vp+1. Il en résulte, a1 v1 + · · · + ap vp + ap+1 vp+1 = 0.

Mais alors, puisque la famille de départ (v1 , . . . , vp ) est une famille libre, tous les ai
sont nuls. On a ainsi montré que la famille (v1 , . . . , vp+1 ) est libre et que l’on pouvait

donc compléter la famille (v1 , . . . , vp ) en une famille libre (v1 , . . . , vp+1 ). En itérant ce
procédé et en moins de dimKE-p é́tapes, nous complétons (v1 , . . . , vp ) en une base de E.
On fabriquerait sinon une famille libre de E ayant dimKE+1 éléments.

Corollaire 5.7.1 Soit E un K-espace-vectoriel de dimension n. Alors ;

• Une famille libre de n vecteurs de E est une base de E,

• Une famille génératrice de E formée de n vecteurs est une base de E.

Définition 5.7.2 (Droite vectorielle, plan, hyperplan) Un espace vectoriel de


dimension 1 est appelé droite vectorielle, un espace vectoriel de dimension 2 est appelé
plan vectoriel. Un hyperplan d’un espace vectoriel E de dimension n est un sous-
espace vectoriel de E de dimension n-1.

Proposition 5.7.4 Soit (f1 , . . ., fp ) une famille génératrice et (e1 , . . . , em ) une famille

libre d’un K-espace vectoriel E. Alors, on peut compléter la famille (e1 , . . . , em ) par des

vecteurs de (f1 , . . . , fp ) pour obtenir une base de E.

Docteur Yao Aubin N’DRI Page 32


Preuve Si (e1 , . . . , em ) est une base de E, il n’y a rien a compléter. Sinon, (e1 , . . . , em )

n’est pas une famille génératrice. L’un des fi n’est alors pas dans vect(e1 , . . . , em ). Sinon

E = vect(f1 , . . . , fp ) serait un sous-espace vectoriel de vect(e1 , . . . , em ) et on aurait alors

E = vect(e1 , . . . , em ) : contradiction! Soit alors i1 tel que fi1 n’appartient pas à


vect(e1 , . . . , em ). Soit a1 , . . . , am+1 ∈ K et une relation : a1 e1 + · · · + am em + am+1 fi1 = 0.

Si am+1 est non nul, on aurait fi1 = −(1/am+1 )(a1 e1 + · · · + am em ), ce qui contredit

l’hypothèse sur fi1. Donc, am+1 = 0 et la famille (e1 , . . . , em ) étant libre, on en déduit

que tous les ai sont nuls. La famille (e1 , . . . , em , fi1 ) est donc libre. Si c’est une

famille génératrice de E, c’est une base de E et nous avons terminé. Sinon,


continuons. Supposons la famille e1 ,..., em , fi1 ,..., fir  libre. Les f i j sont alors deux à deux

distincts, car une famille libre ne contient pas deux vecteurs égaux. Si e1 ,..., em , fi1 ,..., fir 
est génératrice, alors c’est une base de E. Sinon, par le même argument que précédemment,
 
il existe ir 1 ∈ {1, … , 𝑝} tel que f ir 1  e1 ,..., em , fi1 ,..., fir . On montre alors comme
 
précédemment que la famille e1 ,..., em , fi1 ,..., fir est libre. En moins de p étapes, on obtient
une base de E car  e1 ,..., em , f1 ,..., f p  est une famille génératrice de E.

5.8. Morphismes de K -espaces vectoriels : Soit E et F deux K -espaces vectoriels.

Une application 𝑓 ∶ 𝐸 → 𝐹 est dite une application linéaire si

• ∀ u, v ∈ E , f (u + v) = f (u) + f (v) ,

• ∀ λ ∈ K, ∀u ∈ E , f (λu) = λf (u).

Il résulte alors des définitions les propriétés : ∀ λ ∈ K, ∀ u ∈ E , f (−λu) = −λf (u).

Exemple.

L a conjugaison est un morphisme du ℝ-espace vectoriel des nombres complexes vers


lui-même.

Docteur Yao Aubin N’DRI Page 33


Chapitre 3 MATRICES
Introduction

Une matrice par exemple à coefficients réels de n lignes et p colonnes est un tableau
constitué de n lignes formées de p réels. L’ensemble de ces matrices est muni de deux
opérations naturelles : addition et multiplication par un réel. Nous définissons de plus le
produit « ligne-colonne » qui permet de multiplier une matrice n lignes et p colonnes
par une matrice p lignes et m colonnes.

A toute matrice carrée, il est possible d’associer un réel appelé déterminant de la


matrice et dont la non nullité caractérise son invisibilité. Les déterminants permettent
de calculer la co-matrice d’une matrice et ainsi d’exprimer l’inverse d’une matrice. Nous
détaillons cette théorie dans le cas des matrices de tailles deux et trois. Elle peut s’étendre
à des matrices carrées de taille quelconque n ≥ 4.

Les matrices codent les systèmes d’équations linéaires et ce codage est à la source du
produit ligne-colonne. Il existe plus précisément une correspondance entre système
d’équations linéaires et équations matricielles.

Dans ce cours, K désignera soit l'ensemble ℝ des nombres réels, soit l'ensemble ℂ des nombres
complexes.

1 Définitions

Définition 1.1 Soit n et p deux entiers naturels. Une matrice 𝑛 × 𝑝 à coefficients dans K est la
donnée d'une famille (𝑎𝑖𝑗 )1≤𝑖≤𝑛 ,1≤𝑗≤𝑝 de 𝑛𝑝 éléments de K. Elle est représentée par le tableau
𝑎11 … 𝑎1𝑝
à n lignes et p colonnes : 𝑀 = ( ⋮ … ⋮ ).
𝑎𝑛1 … 𝑎𝑛𝑝

L’é́lément 𝑎𝑖𝑗 de K est le terme de sa i-ème ligne et j - è me colonne qui est appelé le terme
général de M. On dit que la matrice M est une matrice à n lignes et p colonnes.

Notation 1.1 On note 𝑀𝑛,𝑝 (𝐾) l’ensemble des matrices à n lignes et p colonnes.

Soit a1, . . . , ap ∈ 𝐾, la matrice (a1, a2,. . ., ap ) ∈ 𝑀1,𝑝 (𝐾) est appelée matrice ligne.

Soit a1, . . . , ap ∈ 𝐾 , la matrice


𝑎1
𝑀 = ( ⋮ ) ∈ 𝑀𝑛,1 (𝐾) est appelée matrice colonne.
𝑎𝑛

On note 0 la matrice de 𝑀𝑛,𝑝 (𝐾) dont tous les coefficients sont nuls.

Docteur Yao Aubin N’DRI Page 34


Notations 1.2 Les matrices à n lignes et n colonnes sont appelées matrices carrées de taille n.
L’ensemble de ces matrices sera noté 𝑀𝑛 (𝐾).

Soit 𝑀 = (𝑎𝑖𝑗 )1≤𝑖≤𝑛,1≤𝑗≤𝑛 ∈ 𝑀𝑛 (𝐾) une matrice carrée. Les coefficients 𝑎𝑖𝑖 sont appelés
coefficients diagonaux.

La matrice M est dite diagonale si 𝑎𝑖𝑗 = 0 pour i ≠ j :

𝑎11 … 0
𝑀=( ⋮ ⋱ ⋮ ).
0 … 𝑎𝑛𝑛

La matrice M est dite triangulaire supérieure si 𝑎𝑖𝑗 = 0 pour i > j :

 a11 a12 a1n 


 
0 a22 a2 n 
M  .
 
 
 0 0 ann 

La matrice M est dite triangulaire supérieure stricte si 𝑎𝑖𝑗 = 0 pour i ≥ j :

 0 a12 a13 a1n 


 
0 0 a23 a2 n 
M  0 0 0 .
 
 0 an 1,n 
0 0 0 
 0

On définit de même les matrices triangulaires inférieures.

Enfin, on note 𝐼𝑛 ∈ 𝑀𝑛 (𝐾) la matrice diagonale dont les éléments diagonaux sont égaux à
1:
1 … 0
𝐼𝑛 = ( ⋮ ⋱ ⋮ ).
0 … 1

2. Trois opérations sur les matrices à coefficients dans K

2.1. Addition de deux matrices de ∈ 𝑴𝒏,𝒑 (𝑲)

Soit 𝑴 = (𝒂𝒊𝒋 ) ∈ 𝑴𝒏,𝒑 (𝑲), 𝑁 = (𝑏𝑖𝑗 ) ∈ 𝑴𝒏,𝒑 (𝑲). La somme de M et N est la matrice
de 𝑀𝑛,𝑝 (𝐾) dont le terme général est 𝑎𝑖𝑗 + 𝑏𝑖𝑗 . Elle est notée M + N. Ainsi

Docteur Yao Aubin N’DRI Page 35


𝑎11 … 𝑎1𝑝 𝑏11 … 𝑏1𝑝 𝑎11 + 𝑏11 … 𝑎1𝑝 + 𝑏1𝑝
𝑀+𝑁 =( ⋮ ⋱ ⋮ )+( ⋮ ⋱ ⋮ )=( ⋮ ⋱ ⋮ ).
𝑎𝑛1 … 𝑎𝑛𝑝 𝑏𝑛1 … 𝑏𝑛𝑝 𝑎𝑛1 + 𝑏𝑛1 … 𝑎𝑛𝑝 + 𝑏𝑛𝑝

 0 1 3 4  1 2 0 0  1 1 3 4 
Exemple :    .
1 2 3 4   1 3 2 1  0 5 1 5

2.2 Multiplication d’une matrice de 𝑀𝑛,𝑝 (𝐾) par un él ément de K

Soit λ ∈ K, le produit de M par λ est la matrice de 𝑀𝑛,𝑝 (𝐾) dont le terme général est
λaij. Elle est notée λM. Ainsi :

 a11 a1 p    a11  a1 p 
   
M     .
a anp    an1  anp 
 n1

 0 1 3 4   0 2 6 8 
Exemple 2   .
1 2 3 4   2 4 6 8 

Ces deux opérations munissent 𝑀𝑛,𝑝 (𝐾) d’une structure de K-espace vectoriel.

2.3 Produit ligne-colonne d’une matrice de 𝑴𝒏,𝒑 (𝑲) par une matrice de 𝑴𝒑,𝒒 (𝑲)

Nous allons définir une opération qui associera à 𝑴 ∈ 𝑴𝒏,𝒑 (𝑲), 𝑵 ∈ 𝑴𝒑,𝒒 (𝑲) une
matrice notée 𝑴𝑵 ∈ 𝑴𝒏,𝒒 (𝑲) et appelée produit de M par N , et donc définir une
application :

𝑀𝑛,𝑝 (𝐾) × 𝑀𝑝,𝑞 (𝐾) → 𝑀𝑛,𝑞


(𝑀, 𝑁) ⟼ 𝑀𝑁.

Commençons par définir ce produit dans le cas du produit d’une matrice ligne par
une matrice colonne, c’est à dire d’une matrice de 𝑀1,𝑝 (𝐾 ) par une matrice 𝑀𝑝,1 (𝐾 ).
Ce produit est défini par l’application :

𝑀1,𝑝 (𝐾) × 𝑀𝑝,1 (𝐾) → 𝑀1,1 (𝐾) = 𝐾.

𝑏1
𝐿 = (𝑎1 𝑎2 … 𝑎𝑝 ), 𝐶 = (𝑏2 ) ⟼ 𝐿𝐶 = 𝑎1 𝑏1 + 𝑎2 𝑏2 + ⋯ + 𝑎𝑝 𝑏𝑝 .

𝑏𝑝
( )

Docteur Yao Aubin N’DRI Page 36


1
Exemple :  3 1 4   1  0 . Ce produit est en fait le produit scalaire des deux vecteurs et
 
 1
 
la dernière égalité signifie que les vecteurs (3,−1, 4) et (1,−1,−1) sont orthogonaux.

A partir de là, le produit de 𝑴 ∈ 𝑴𝒏,𝒑 (𝑲) par 𝑵 ∈ 𝑴𝒑,𝒒 (𝑲) est la matrice M N dont
le terme plaçé à la i-ème ligne et j-ème colonne est 𝐿𝑖 𝐶𝑗 produit de la i-ème ligne
de M par la j-ème colonne de N.
𝑎11 … 𝑎1𝑝 𝑏11 … 𝑏1𝑞 𝐿1 𝐶1 … 𝐿1 𝐶𝑞
𝑀=( ⋮ ⋱ ⋮ ),𝑁 = ( ⋮ ⋱ ⋮ ) ⟼ 𝑀𝑁 = ( ⋮ ⋱ ⋮ ).
𝑎𝑛1 … 𝑎𝑛𝑝 𝑏𝑝1 … 𝑏𝑝𝑞 𝐿𝑛 𝐶1 … 𝐿𝑛 𝐶𝑞
𝑏1𝑗
où 𝐿𝑖 = (𝑎𝑖1 … 𝑎𝑖𝑝 ) est le i-ème ligne de M et 𝐶𝑗 = ( ⋮ ) est la j-ème colonne de N.
𝑏𝑝𝑗

Ainsi, le terme général de la matrice 𝑴𝑵 ∈ 𝑴𝒏,𝒒 (𝑲) est :


𝒑

𝑳𝒊 𝑪𝒋 = ∑ 𝒂𝒊𝒌 𝒃𝒌𝒋 .
𝒌=𝟏

1 1 0
 
 0 1 3 4   1 2 1   5 5 4 
Exemple    .
1 2 3 4   0 1 1  1 8 5 
 
 1 0 0 

Proposition 2.1 Dès qu’elles ont un sens, nous avons les égalités entre matrices :

𝑖) (𝑀𝑁)𝑃 = 𝑀(𝑁𝑃) = 𝑀𝑁𝑃,

𝑖𝑖) 𝑀(𝑁 + 𝑃) = 𝑀𝑁 + 𝑀𝑃,

𝑖𝑖𝑖) (𝜆𝑀)𝑁 = 𝑀(𝜆𝑁) = 𝜆𝑀𝑁,

𝑖𝑣) (𝑀 + 𝑁)𝑃 = 𝑀𝑃 + 𝑁𝑃,

𝑣) 𝐼𝑛 𝑀 = 𝑀𝐼𝑝 = 𝑀.

Transposition

C’est une application qui à 𝑴 ∈ 𝑴𝒏,𝒑 (𝑲) associe une matrice notée t𝑴 ∈ 𝑴𝒑,𝒏 (𝑲)
appelée transposée de M d é finie par :
𝑴𝒏,𝒑 (𝑲) ⟶ 𝑴𝒑,𝒏 (𝑲)
.
(𝒂𝒊𝒋 ) ⟼ (𝒂𝒋𝒊 )
𝟏≤𝒊≤𝒏,𝟏≤𝒋≤𝒑 𝟏≤𝒋≤𝒑,𝟏≤𝒊≤𝒏

Docteur Yao Aubin N’DRI Page 37


Autrement dit, la i-ème ligne de t M est la i-ème colonne de M et la j-ème colonne de

t M est la j-ème ligne de M.

Exemple :

𝑡 1 1 −2 4 1 0 −7
(0 4 1
5 0)=(−2 4 2)
5 6
−7 2 6 1
4 0 1

Trace d’une matrice carrée

Définition 2.1. Soit 𝐴 ∈ 𝑀𝑛 (𝐾) une matrice carrée. Sa trace, notée Tr(A), est la somme de ses
coefficients diagonaux.

1 0 4 0
 
1 2 7 10 
Exemple. A   , on a : Tr(A) = 1+2+5+-1 = 7.
 0 5 5 2 
 
 3 1 2 1

Elle vérifie les propriétés suivantes :

Tr(A+B) = Tr(A) + Tr(B), Tr(αA) = αTr(A), Tr(AB) = Tr(BA).

Formule du Binôme de Newton

Si 𝐴𝐵 = 𝐵𝐴, alors ∀𝑛 ∈ ℕ,
𝒏

(𝑨 + 𝑩) = ∑ 𝑪𝒌𝒏 𝑨𝒌 𝑩𝒏−𝒌
𝒏

𝒌=𝟎

avec

𝒏!
𝑪𝒌𝒏 = .
𝒌! (𝒏 − 𝒌)!

Proposition 2.2 Soit 𝜆 ∈ 𝐾, 𝑀 𝑒𝑡 𝑁 ∈ 𝑀𝑛,𝑝 (𝐾) dès qu’elles ont un sens, on a les
égalités : t (M + N) = t M + t N , t (λM) = λ(t M), t (M N) = (t N) (t M),
t (t M) = M.

Définition 2.2 Une matrice carrée est dite symétrique si elle est é g a le à sa transposée:
t M = M. Elle est antisymétrique si t M = -M.

Docteur Yao Aubin N’DRI Page 38


Notation 2.1. Si M ∈ Mn (K), on note M M = M 2 , M M M = M 3 et pour tout entier
n, M n le produit n fois de M par elle-même.

3 Matrices carrées inversibles

Définition 3.1 Une matrice 𝑀 ∈ 𝑀𝑛 (𝐾) est dite inversible, s’il existe 𝑛 ∈ 𝑀𝑛 (𝐾) tel que
𝑀𝑁 = 𝑁𝑀 = 𝐼𝑛 . La matrice N est alors unique, appelée inverse de M et notée 𝑴−𝟏 .

Montrons pour être complet l’unicité de l’inverse. Supposons M inversible. Si N’ et


N’’ sont deux inverses de M on a a l o r s :

𝑁 ′ 𝑀𝑁=(N'M)N = N′(𝑀𝑁) = 𝐼𝑛 𝑁=N'𝐼𝑛 =N = 𝑁 ′ .

Notation 3.1. Nous noterons Gln (K) l’ensemble des matrices inversibles Mn (K).

Proposition 3.1

1. La matrice In est inversible d’inverse In.

2. Si M et N sont deux matrices carrées inversibles, la matrice produit M N est

inversible et l’inverse de M N est : (𝑀𝑁)−1 = 𝑁 −1 𝑀−1 .

3. Si M est une matrice carrée inversible, son inverse 𝑀 −1 est inversible et l’inverse

de 𝑀−1 est : (𝑀−1 )−1 = 𝑀.

4. Si M est une matrice carrée inversible, sa transposée t M est inversible et l’inverse

de t M est : (t M )-1 = t (M-1).

Preuves : 1) Cela résulte de l’identité In In = In In = In.

2) Soit M et N deux matrices carrées inversibles. Nous avons

M N (𝑁 −1 𝑀−1 ) = M (N𝑁)−1 𝑀−1 = M In 𝑀−1 = M𝑀 −1 = In

et

𝑁 −1 𝑀−1 M N = 𝑁 −1 (𝑀 −1 M )N = 𝑁 −1 In N = 𝑁 −1 N = In.

Ainsi, M N est inversible d’inverse 𝑁 −1 𝑀−1 .

Docteur Yao Aubin N’DRI Page 39


3) Soit M une matrice carrée inversible. Par définition de l’inversibilité de M, nous
avons : 𝑀−1 M = M 𝑀−1 = In.

Cela implique que 𝑀−1 est inversible d’inverse M.

4) Soit M une matrice carrée inversible. En utilisant la formule sur la transposée d’une
multiplication donnée dans la proposition 2.2, nous obtenons :

t (𝑀−1 )t M = t (M 𝑀 −1 ) = t (In) = In.

De même, on montre t M t (𝑀 −1 ) = In. Ainsi, t M est inversible d’inverse t (𝑀 −1 ).

Remarque 3.1 Il résulte en particulier de cette proposition que, muni du produit


matriciel, Gln (K) est un groupe.

4 Matrices carrées inversibles de Mn(K)

𝑎 𝑏
Définition 4.1 Soit 𝐴 = ( ) ∈ 𝑀2 (𝐾). On appelle déterminant de A et on note det(A)
𝑐 𝑑
l’élément de K définie par : det(A) = ad - bc.

𝑎 𝑏
Proposition 4.1 Soit 𝐴 = ( ) ∈ 𝑀2 (𝐾). La matrice A est inversible si et seulement si
𝑐 𝑑
det(A) ≠ 0. On a alors :

1 𝑑 −𝑏
𝐴−1 = ( ).
𝑎𝑑 − 𝑏𝑐 −𝑐 𝑎

𝑎11 𝑎12 𝑎13


Définition 4.2 Soit 𝐴 = (𝑎21 𝑎22 𝑎23 ) ∈ 𝑀3 (𝐾). On appelle mineur du coefficient 𝑎𝑖𝑗
𝑎31 𝑎32 𝑎33
le déterminant Δ𝑖𝑗 de la matrice carrée de 𝑀3 (𝐾) obtenue en enlevant à M sa i-ème ligne et
sa j-ème colonne. Le coefficient (−1)𝑖+𝑗 Δ𝑖𝑗 s’appelle le cofacteur de 𝑎𝑖𝑗 .

𝑎11 𝑎12 𝑎13


Définition 4.3 Soit 𝐴 = (𝑎21 𝑎22 𝑎23 ) ∈ 𝑀3 (𝐾). On appelle déterminant de A et
𝑎31 𝑎32 𝑎33

on note det(A), l’élément de K défini par :


det(A) = 𝑎11 ∆11 - 𝑎21 ∆21 + 𝑎31 ∆31

= 𝑎11 (𝑎22 𝑎33 - 𝑎32 𝑎23 ) - 𝑎21 (𝑎12 𝑎33 - 𝑎32 𝑎13) + 𝑎31 (𝑎12 𝑎23 - 𝑎22 𝑎13 ).

Remarque 4.1 Avec les notations de la définition 4.2, on remarque que pour
tout j , i ∈ {1, 2, 3} :

Docteur Yao Aubin N’DRI Page 40


det(A) = (−1)1+ja1j ∆1j + (−1)2+ja2j ∆2j + (−1)3+ja3j ∆3j

= (−1)i+1 ai1 ∆i1 + (−1)i+2ai2 ∆i2 + (−1)i+3ai3 ∆i3.

La première formule est appelée développement du déterminant par rapport à la j-ème


colonne. La deuxième formule est appelée développement du déterminant par rapport à la
i-ème ligne.

Proposition 4.2 Pour tout A, B ∈ Mn (K)

𝑑𝑒𝑡(𝐴𝐵) = 𝑑𝑒𝑡(𝐵𝐴) = 𝑑𝑒𝑡(𝐴) × 𝑑𝑒𝑡(𝐵), 𝑑𝑒𝑡(𝐼𝑛 ) = 1, 𝑑𝑒𝑡( 𝑡𝐴) = 𝑑𝑒𝑡(𝐴).

Proposition 4.3 Pour tout A∈ Mn (K), la matrice A est inversible si et seulement


si det(A) ≠ 0. On a alors :

1 t
A1  Com( A)
det( A)

où com(A) ∈ Mn(K) est la matrice de terme général le cofacteur de aij : (−1)i+j ∆ij .

Remarque 4.2 Avec les notations de la définition 4.3, si det(A) ≠ 0, alors


𝑡
∆11 −∆12 ∆13
1
𝐴−1 = det(𝐴) (−∆21 ∆22 −∆23 ) .
∆31 −∆32 ∆33

Proposition 4.4 Soit M une matrice de Mn(K).

i) Si t o us é l é m e n t s d’ u n e l i gn e d e M sont nuls, al ors 𝑑𝑒𝑡(𝑀) = 0.

i i ) S i deux l i gnes d’ une m at ri c e sont pr oport i onnel l es (ou i dent i ques) al ors
𝑑𝑒𝑡(𝑀) = 0.

iii) Si M est triangulaire, a l o r s 𝑑𝑒𝑡(𝑀) est le produit des éléments de sa diagonale.

iv) Si aux éléments d’une ligne d’une matrice M on ajoute 𝜆 fois les éléments
correspondants d’une autre ligne, la valeur de son déterminant reste inchangée.

v) Si chaque élément d’une ligne de la matrice M est multiplié par un scalaire 𝜆, alors
son déterminant est multiplié par 𝜆.

vi) Si l’on permute deux lignes d’une matrice, le signe de son déterminant change.

vii) Mêmes énoncés avec les colonnes.

Docteur Yao Aubin N’DRI Page 41


Proposition 4.5 Si chaque élément d’une ligne (ou d’une colonne) d’un déterminant
peut se représenter par la somme de deux ou plusieurs nombres, alor s ce déterminant
peut s’exprimer en fonction de la somme de deux ou de plusieurs déterminants.

Exemple

1 9 −3 1 9 −2 − 1
|4 6 −2| = | 4 6 −2 + 0|
−3 1 5 −3 1 2+3
1 9 −2 1 9 −1
=| 4 6 −2| + | 4 6 0 | = −160.
−3 1 2 −3 1 3
5. Rang d’une matrice

Contrairement au déterminant, la notion de rang d’une matrice se définit pour les matrices
quelconques et non nécessairement carrées.

Une matrice 𝐴 ∈ 𝑀𝑛,𝑝 (𝐾) non nulle est de rang 𝑟 = 𝑟𝑔(𝐴) si au moins l’un de ses mineurs
carrés d’ordre r est différent de 0, tandis que chaque mineur carré d’ordre r+1 est nul.
Ou encore, le rang de la matrice 𝐴 ∈ 𝑀𝑛,𝑝 (𝐾) est l’ordre de la plus grande sous-matrice carrée
de déterminant non nul que l’on peut extraire de A.

Exemple
1 2 3 4
𝐴 = ( 1 0 1 2 ) ∈ 𝑀3,4 (ℝ).
−1 1 0 −1
1 2 3
| 1 0 1| = 0, on constate que tous les déterminants des sous-matrices carrées
−1 1 0
d’ordre 3 extraites de la matrice A sont nuls, donc 𝑟𝑔(𝐴) < 3.
1 2
On vérifie facilement que | | = −2 ≠ 0 par conséquent on a 𝑟𝑔(𝐴) = 2.
1 0
Remarque La matrice nulle est la seule matrice de rang nul.

Propriété 5.1 Le rang d’une matrice 𝐴 ∈ 𝑀𝑛,𝑝 (𝐾) non nulle est égale au nombre
maximum de lignes linéairement indépendantes de la matrice A.

Propriété 5.2 Si 𝐴 ∈ 𝑀𝑛,𝑝 (𝐾)), alors rg(A) ≤ min(n,p).

Remarque Pour tout 𝐴 ∈ 𝑀𝑛,𝑝 (𝐾), rg ( t A)  rg ( A) .


Dans la propriété suivante, nous supposons que les matrices 𝐴 𝑒𝑡 𝐵 sont quelconques et que les
opérations sont possibles.

Propriétés 5.3
𝑖) 𝑟𝑔(𝐴 + 𝐵) = 𝑟𝑔(𝐴) + 𝑟𝑔(𝐵) ;
ii) si 𝑟𝑔(𝐴) = 𝑟𝑔(𝐵) alors 𝑟𝑔(𝐴𝐵) = 𝑟𝑔(𝐵𝐴).

Docteur Yao Aubin N’DRI Page 42


6. Les systèmes d’équations linéaires
6.1 Matrices et résolution de systèmes linéaires

Soit 𝑎𝑖𝑗 , 𝑏𝑖 ∈ 𝐾. Considérons le système linéaire de m équations à n inconnues.

 a11 x1  a12 x2   a1n xn  b1


a x  a x   a2 n xn  b2

( E )  21 1 22 2



am1 x1  am 2 x2   amn xn  bm
.

On a alors (𝑥1 , … , 𝑥𝑛 ) ∈ 𝐾 𝑛 est solution de E si et seulement si la matrice colonne :

 x1   x1   b1 
     
  vérifie A      où 𝐴 = (𝑎𝑖𝑗 ) ∈ 𝑀𝑚,𝑛 (𝐾).
x   x  b 
 n  n  m

Ainsi, un système d’équations linéaires correspond à une équation matricielle.

La matrice A est appelée matrice associée au système E.

Proposition 6.1 Soit 𝐴 ∈ 𝑀𝑛 (𝐾) une matrice carrée inversible et 𝑏1 , … , 𝑏𝑛 ∈ 𝐾.

 x1   b1 
   
Le système d’équations linéaires associé à l’équation A      admet
 x  b 
 n  m
 x1   b1 
  1  
comme unique solution    A   .
x  b 
 n  m

Cas particulier n = 2. Considérons le système de deux équations linéaires à deux variables :

 a x  a12 x2  b1
( E )  11 1 .
a21 x1  a22 x2  b2

a a 
La matrice associée à ce système est A   11 12  . Si A est inversible alors l’unique
 a21 a22 
x  b 
solution de (E) est  1   A1  1  .
 x2   b2 

Docteur Yao Aubin N’DRI Page 43


 b a12  a b1 
det  1  det  11 
Le calcul donne : x1   b2 a22  , x2   a21 b2  .
det( A) det( A)

Cas particulier n = 3. Considérons le système de trois équations linéaires à trois variables :

 a11 x1  a12 x2  a13 x3  b1



( E ) a21 x1  a22 x2  a23 x3  b2 .
a x  a x  a x  b
 31 1 32 2 33 3 3

La matrice associée à ce système est :

 a11 a12 a13 


 
A   a21 a22 a23  .
a a33 
 31 a32

 x1   b1 
  1  
Si A est inversible, l’unique solution de (E) est :  x2   A  b2  .
x  b 
 3  3

Le calcul donne :

 b1 a12 a13   a11 b1 a13   a11 a12 b1 


     
det  b2 a22 a23  det  a21 b2 a23  det  a21 a22 b2 
b a  a  a 
x1   3 32 a33  , x   31 b3 a33  et x   31 a32 b3  .
2 3
det( A) det( A) det( A)

Exemple Résoudre le système suivant :

  x1  x2  x2  1

2 x1  2 x2  x3  0 .
 x  x  2x  2
 1 2 3

 x1   1   1 1 1 
     
Ce système équivaut à l’égalité matricielle : A  x2    0  , où A   2 2 1  .
 x   2  1 1 2
 3    

Le déterminant de A est -2. Ainsi, la matrice A est inversible et notre système admet une
unique solution.

Docteur Yao Aubin N’DRI Page 44


 3 1 1  x1  1  3 1 1 1   1/ 2 
11    1   1    
On a A    5 3 1 , donc  x2   A  0    2  5 3 1 0    3 / 2  .
2  x   2  4 2 0  2   2 
 4 2 0   3       

Proposition 6.2 Un système de n équations homogènes à n inconnues admet (0, 0, . . . , 0)


comme seule solution si et seulement si la matrice carrée associée à ce système est
inversible.

6.2 Etude d’un système par la méthode du pivot

Nous développons dans ce chapitre un outil appelé méthode de pivot ou d’élimination de


Gauss pour résoudre un système d'équations linéaires 𝑨𝑿 = 𝑩 où A est une matrice, X est le
vecteur solution et B est le vecteur second membre.

La méthode de Pivot de Gauss repose sur deux principes simples :

i) Le système linéaire reste invariant pour les trois opérations élémentaires à savoir :
la permutation de lignes, la multiplication d'une ligne par une constante et l'addition d'une ligne
à une autre.
ii) Si la matrice A est triangulaire supérieure, alors la résolution du système linéaire 𝑨𝑿 = 𝑩
se fait par substitution arrière.

Pour cela, il suffit pour chaque ligne i de :

1) Fixer le pivot 𝑎𝑖𝑖 ≠ 0. Si le pivot d'une ligne i est nul on cherche dans les lignes suivantes le
premier élément non nul dans la même colonne (colonne i) et on fait une permutation des lignes
du système linéaire.
2) Soustraire des lignes j suivantes (𝑗 > 𝑖) la ième ligne de A et de B multipliée par la quantité
(𝑎𝑗𝑖 /𝑎𝑖𝑖 ). Avec aji les coefficients des différentes lignes se trouvant sur la même colonne du
𝑎𝑗𝑖
pivot : 𝐿′𝑗 = 𝐿𝑗 − (𝑎 ) 𝐿𝑖 .
𝑖𝑖

Exemple 6.1
2𝑥 + 𝑦 − 2𝑧 + 3𝑡 = 1 𝐿1
{ 𝟑𝑥 + 2𝑦 − 𝑧 + 2𝑡 = 4 𝐿2 .
3𝑥 + 3𝑦 + 3𝑧 − 3𝑡 = 5 𝐿3

On voit que les coefficients devant x sont tous non nuls. On peut fixer le pivot 𝑎11 = 2 ≠ 0
𝑎 𝑎
puis on transforme les lignes 𝐿2 et 𝐿3 : 𝐿′2 = 𝐿2 − (𝑎21 ) 𝐿1 et 𝐿′3 = 𝐿3 − (𝑎31 ) 𝐿1 .
11 11
On obtient,

Docteur Yao Aubin N’DRI Page 45


2𝑥 + 𝑦 − 2𝑧 + 3𝑡 = 1 𝐿1
1 5 5
𝑦 + 2𝑧 − 𝑡 = 𝐿′2
2 2 2 .
3 15 7
{ 𝑦 + 6𝑧 − 𝑡 = 𝐿′3
2 2 2
1 𝑎
On peut fixer le pivot 𝑎21 = 2 ≠ 0 puis on transforme la ligne 𝐿′3 : 𝐿"3 = 𝐿′3 − (𝑎31 ) 𝐿′2 .
21

2𝑥 + 𝑦 − 2𝑧 + 3𝑡 = 1 𝐿1
1 5 5
{ 𝑦 + 2𝑧 − 𝑡 = 𝐿′ 2 .
2 2 2
0 = −4 𝐿"3

Dans cet exemple on trouve 0 = −4 ce qui est évidemment faux, on dit alors que le système
est incompatible ou qu’il n’a pas de solutions : 𝑆 = ∅.

Exemple 6.2
1𝑥 + 2𝑦 − 𝑧 = 1 𝐿1
{ 2𝑥 + 3𝑦 + 𝑧 = 2 𝐿2 .
2𝑥 − 4𝑦 − 6𝑧 = 2 𝐿3
Après la même méthode décrite ci-dessus on trouve :

𝑥 + 2𝑦 − 𝑧 = 1 𝐿1 𝑥 + 2𝑦 − 𝑧 = 1 𝐿1
{ −1𝑦 + 3𝑧 = 0 𝐿′ 2 puis { −1𝑦 + 3𝑧 = 0 𝐿′2 .
−8𝑦 − 4𝑧 = 0 𝐿′3 28𝑧 = 0 𝐿"3

On trouve 𝑧 = 0 dans d’abord l’équation 𝐿"3 puis dans 𝐿′2 pour trouver la valeur 𝑦 = 0.
Enfin dans 𝐿1 on trouve 𝑥 = 1. Ainsi, le système a pour solution 𝑆 = {(1, 0, 0)}.

Exercice Résoudre le système suivant :

𝑥 − 3𝑦 + 4𝑧 − 2𝑡 = 5
{ 𝑥 − 𝑦 + 9𝑧 − 𝑡 = 7 .
𝑥 − 2𝑦 + 7𝑧 − 2𝑡 = 9

Systèmes homogènes
Les systèmes homogènes sont les systèmes de la forme :

 a11 x1  a12 x2   a1n xn  0



 a x  a22 x2   a2 n xn  0
( E )  21 1 .

a p1 x1  a p 2 x2   a pn xn  0

Ces système on toujours une solution au moins : 𝑥1 , … , 𝑥𝑛 = 0.

Docteur Yao Aubin N’DRI Page 46


L’ensemble des solutions d’un système linéaire homogène à n inconnues et p équations est un
sous espace vectoriel de Kn. Si le système sous forme échelonnée comporte k équations l’espace
des solutions est de dimension n - k.
En particulier un système homogène avec plus d’inconnues que d’équations admet des solutions
non nulles.

Remarque La dimension de l’espace des solutions égale au nombre de variables libres qui
apparaissent dans le système sous forme échelonnée.

Docteur Yao Aubin N’DRI Page 47


Chapitre 4 MATRICES ET APPLICATIONS LINEAIRES
De manière générale en mathématiques, c’est l’étude des applications entre objets qui nous
intéressent le plus, parce qu’elle nous donne des informations sur les objets eux-mêmes. Nous
avons vu au premier chapitre la notion d’application entre deux ensembles et le deuxième
chapitre a mis au jour la notion d’espace vectoriel. Dans ce chapitre nous étudierons la notion
d’application entre espaces vectoriel : les applications linéaires.

1 Définitions et opérations sur les applications linéaires

Dans cette section, 𝐾 = ℝ 𝑜𝑢 ℂ et E, F sont deux K -espaces vectoriels.

Définition 1.1 Soit E et F deux K-espaces vectoriels, une application linéaire de E vers F est
une application vérifiant :

∀ 𝑢, 𝑣 ∈ 𝐸 𝑒𝑡 ∀𝜆 ∈ 𝐾, 𝑓(𝑢 + 𝑣) = 𝑓(𝑢) + 𝑓(𝑣) 𝑒𝑡 𝑓(𝜆𝑢) = 𝜆𝑓(𝑢).

Remarques Ces deux conditions sont équivalentes au seul fait que l’application f
préserve les combinaisons linéaires de deux vecteurs :

∀ 𝑢, 𝑣 ∈ 𝐸 𝑒𝑡 ∀𝜆, 𝛽 ∈ 𝐾, 𝑓(𝜆𝑢 + 𝛽𝑣) = 𝜆𝑓(𝑢) + 𝛽𝑓(𝑣).

Ceci est encore équivalent au fait que f préserve n’importe quelle combinaison linéaire :

∀ 𝑢1 , … , 𝑢𝑛 ∈ 𝐸 𝑒𝑡 ∀𝜆1 , … , 𝜆𝑛 ∈ 𝐾, 𝑓(𝜆1 𝑢1 + ⋯ + 𝜆𝑛 𝑢𝑛 ) = 𝜆1 𝑓(𝑢1 ) + ⋯ + 𝜆𝑛 𝑓(𝑢𝑛 ).

Il est facile de voir que

𝑓(0𝐸 ) = 0𝐹 , 𝑓(−𝑢) = −𝑓(𝑢) 𝑒𝑡 𝑓(−𝜆𝑢) = −𝜆𝑓(𝑢).

Exemples
𝑓∶ℝ→ℝ
1) Les applications de la forme
𝑥 ↦ 𝑎𝑥
avec 𝑎 ∈ ℝ sont linéaires. Ce sont d’ailleurs les seules applications linéaires de ℝ dans ℝ.
2 ) Toute matrice 𝐴 ∈ 𝑀𝑛,𝑚 donne naissance à une application 𝑓𝐴 : ℝ𝑚 → ℝ𝑛 , 𝑋 ↦ 𝐴𝑋, où
la multiplication 𝐴𝑋 de la matrice 𝐴 par le vecteur colonne 𝑋 est
𝑎11 … 𝑎1𝑚 𝑥1 𝑎11 𝑥1 + ⋯ + 𝑎1𝑚 𝑥𝑚
( ⋮ ⋱ ⋮ )( ⋮ ) = ( ⋮ )
𝑎𝑛1 ⋯ 𝑎𝑛𝑚 𝑥𝑚 𝑎𝑛1 𝑥1 + ⋯ + 𝑎𝑛𝑚 𝑥𝑚
qui est linéaire car la multiplication des matrices l’est :
𝐴(𝑋 + 𝑌) = 𝐴𝑋 + 𝐴𝑌 𝑒𝑡 𝐴(𝜆𝑋) = 𝜆(𝐴𝑋).

Docteur Yao Aubin N’DRI Page 48


3) L’identité de E, notée 𝐼𝑑𝐸 est l’application, 𝐼𝑑𝐸 ∶ 𝐸 → 𝐸, 𝑢 ↦ 𝐼𝑑𝐸 (𝑢) = 𝑢.

Cette application est linéaire.

4) Soit E un K-espace vectoriel et 𝜆 ∈ 𝐾. L’application :

ℎ𝜆 ∶ 𝐸 → 𝐸, 𝑥 ↦ ℎ𝜆 (𝑥) = 𝜆𝑥

est appelée homothétie de rapport λ est une application linéaire.

5) Les applications 𝑓 ∶ ℝ → ℝ, 𝑥 ↦ 𝑓(𝑥) = 𝑥 + 1 𝑒𝑡 𝑓𝜆 ∶ ℝ → ℝ, 𝑥 ↦ ℎ𝜆 (𝑥) = 𝜆𝑥 2 ne sont


pas des applications linéaires. A montrer en exercice.

6) L’application 𝑓 → 𝑓′ qui à une fonction associe sa dérivée est linéaire (de l’espace des
fonctions dérivables dans l’espace des fonctions).
𝑏
7) L’application 𝑓 ↦ ∫𝑎 𝑓(𝑡)𝑑𝑡 est linéaire (de l’espace des fonctions continues dans ℝ.)

Notation 1.1 On note LK (E, F) l’ensemble des applications linéaires de E vers F et


LK (E) l’ensemble des applications linéaires de E vers E. Un é l é m e nt de LK (E) est
appelé endomorphisme de E.

Proposition 1.1 Soit E, F, G trois K-espaces vectoriels. Pour tout 𝑓 ∈ LK (E, F)


et 𝑔 ∈ LK (F, G), l’application composée 𝑔 ∘ 𝑓 est linéaire.

Preuve : Soit u, v ∈ E et λ ∈ K. En utilisant successivement la défi nitio n de 𝑔 ∘ 𝑓, la


linéarité de 𝑓 , puis de 𝑔, on obtient :
(𝑔 ∘ 𝑓)(𝜆𝑢 + 𝛽𝑣) = 𝑔(𝑓(𝜆𝑢 + 𝛽𝑣)) = 𝑔(𝜆𝑓(𝑢) + 𝛽𝑓(𝑣)) = 𝜆𝑔(𝑓(𝑢)) + 𝛽𝑔(𝑓(𝑣)) =

𝜆𝑔 ∘ 𝑓(𝑢) + 𝛽𝑔 ∘ 𝑓(𝑣).

Proposition 1.2
1) Soit 𝑓 ∈ LK (E, F), 𝑔 ∈ LK (E, F) et soit λ ∈ K. Les applications
𝑓 + 𝑔 𝑒𝑡 𝜆𝑓 sont linéaires.
2) Munis de ces opérations, (LK (E, F) ; +, × ) est un K-espace vectoriel.

Si 𝑓 ∈ LK (E), on notera 𝑓 𝑘 = 𝑓 ∘ 𝑓 … ∘ 𝑓 la composée de k fois l’application 𝑓 par


elle-même.

Proposition 1 . 3 Si 𝑓 ∈ LK (E, F) est bijective, l’application réciproque

𝑓 −1 : 𝐹 → 𝐸 est alors linéaire, 𝑓 −1 ∈ LK (F, E) . On dit alors que 𝑓 est un


isomorphisme linéaire et que E et F sont isomorphes.

Docteur Yao Aubin N’DRI Page 49


Preuve : Soit 𝑓 ∈ LK (E, F) bijective. Rappelons que cela signifie que pour tout 𝑣 ∈ 𝐹,
il existe un unique vecteur 𝑢 ∈ 𝐸 tel que 𝑓(𝑢) = 𝑣. L’application réciproque est
l’application 𝑓 −1 : 𝐹 → 𝐸 qui associe à un vecteur 𝑣 ∈ 𝐹 le seul vecteur 𝑢 ∈ 𝐸 tel que

𝑓(𝑢) = 𝑣. Nous devons montrer que 𝑓 −1 est linéaire. Soit 𝑣, 𝑣′ ∈ 𝐹 et 𝜆 ∈ 𝐾.


Notons 𝑢 = 𝑓 −1 (𝑣) et 𝑢′ = 𝑓 −1 (𝑣′). Comme 𝑓(𝑢 + 𝑢′) = 𝑓(𝑢) + 𝑓(𝑢′ ) = 𝑣 + 𝑣 ′ . Il vient
que 𝑢 + 𝑢′ = 𝑓 −1 (𝑣 + 𝑣′). Ainsi, 𝑓 −1 (𝑣 + 𝑣′) = 𝑓 −1 (𝑣) + 𝑓 −1 (𝑣′).
De même 𝑓(𝜆𝑢) = 𝜆𝑓(𝑢) = 𝜆𝑣. Ainsi, 𝑓 −1 (𝜆𝑣) = 𝜆𝑢 = 𝜆𝑓 −1 (𝑣). Cela montre que 𝑓 −1 est
linéaire.

Notation 1.2 On note GLK (E) ⊂ LK (E) l’ensemble des isomorphismes linéaires de E
vers E.

2 Application linéaire et sous-espaces vectoriels

Proposition 2.1 Soit 𝑓 ∶ 𝐸 ⟶ 𝐹 une application linéaire entre deux K-espaces vectoriels.

1) Pour tout sous-espace vectoriel 𝑈 de E, 𝑓(𝑈) est un sous-espace vectoriel de F.


2) Pour tout sous-espace vectoriel 𝑉 de F, 𝑓 −1 (𝑉) est un sous-espace vectoriel de E.

Preuve de 1) : L’ensemble 𝑓(𝑈) est non vide, car 0𝐸 ∈ 𝑈 et donc 𝑓(0𝐸 ) = 0𝐹 ∈ 𝑓(𝑈).
Soit 𝑦, 𝑦′ ∈ 𝑓(𝑈) et λ ∈ K. Par définition de 𝑓(𝑈), il existe 𝑥, 𝑥 ′ ∈ 𝑈 tels que

𝑦 = 𝑓(𝑥) 𝑒𝑡 𝑦 ′ = 𝑓(𝑥 ′ ). On a alors en utilisant la linéarité de 𝑓 :

𝑦 + 𝑦’ = 𝑓(𝑥) + 𝑓(𝑥’) = 𝑓(𝑥 + 𝑥’) et

𝜆𝑦 = 𝜆𝑓(𝑥) = 𝑓(𝜆𝑥).

Comme 𝑈 est un sous-espace vectoriel, 𝑥 + 𝑥’ et 𝜆𝑥 sont des vecteurs de 𝑈. Il en résulte


que et 𝑦 + 𝑦’ et ∈ 𝑓(𝑈). Ainsi, 𝑓(𝑈) est un sous-espace vectoriel de F.

Preuve de 2) : L’ensemble 𝑓 −1 (𝑉) est non vide, car 𝑓 (0𝐸 ) = 0𝐹 ∈ 𝑉.

Ainsi, 0𝐸 ∈ 𝑓 −1 (𝑉). Soit 𝑥, 𝑥’ ∈ 𝑓 −1 (𝑉) et λ ∈ K. Ainsi, 𝑓(𝑥), 𝑓(𝑥’) ∈ 𝑉. Comme


𝑓 est linéaire, 𝑓(𝑥 + 𝑥’) = 𝑓(𝑥) + 𝑓(𝑥’) et 𝑓(𝜆𝑥) = 𝜆𝑓(𝑥).

Comme 𝑉 est un sous-espace vectoriel, nous en déduisons 𝑓(𝑥 + 𝑥’), 𝑓(𝜆𝑥) ∈ 𝑉. Il en


résulte que 𝑥 + 𝑥’ , 𝜆𝑥 ∈ 𝑓 −1 (𝑉). Donc, 𝑓 −1 (𝑉) est un sous-espace vectoriel de E.

Définition 2.1 (Image d’une application linéaire)


Soit 𝑓 ∶ 𝐸 → 𝐹 une application linéaire. On appelle image de 𝑓 et on note 𝑖𝑚(𝑓)
le sous-espace vectoriel de F : 𝑖𝑚(𝑓) = 𝑓 (𝐸) = {𝑓(𝑢), 𝑢 ∈ 𝐸} ⊂ 𝐹.

Docteur Yao Aubin N’DRI Page 50


Définition 2.2 (Noyau d’une application linéaire)
Soit 𝑓: 𝐸 → 𝐹 une application linéaire. On appelle noyau de 𝑓 et on note 𝑘𝑒𝑟(𝑓), le
sous-espace vectoriel de 𝐸 : 𝑘𝑒𝑟(𝑓) = 𝑓 −1 ({0𝐹}) = {𝑢 ∈ 𝐸 , 𝑓 (𝑢) = 0𝐹 } ⊂ 𝐸.

Proposition 2.2 Soit 𝑓 ∈ LK (E, F), 𝑓 surjective ⇔ 𝑖𝑚(𝑓) = 𝐹 et

𝑓 injective ⇔ 𝑘𝑒𝑟(𝑓) = {0𝐸 }.

Preuve

La première assertion résulte de la définition de la surjectivité.

Montrons la deuxième assertion. Supposons 𝒇 injective. Comme 𝑓(0𝐸) = 0𝐹 et que 𝑓


est injective, c’est que 0E est la seule solution de 𝑓(𝑥) = 0𝐹 avec 𝑥 ∈ 𝐸.

Donc, 𝑘𝑒𝑟(𝑓) = {0𝐸 }. Supposons maintenant que kerf = {0E}.

Soit 𝑦 ∈ 𝐹 et 𝑥, 𝑥′ ∈ 𝐸 tels que 𝑓(𝑥) = 𝑓(𝑥 ′ ) = 𝑦. On obtient, 𝑓(𝑥) − 𝑓(𝑥 ′ ) = 0𝐸 .

Il résulte de la linéarité de 𝑓 que 𝑓 (x – x’) = 0. Ainsi, 𝑥 − 𝑥 ′ ∈ ker(𝑓) = {0𝐹 } et donc


𝑥 = 𝑥 ′ . Ainsi pour tout y ∈ F, l’é́quation f (x) = y a au plus une solution.
L’application 𝑓 est donc injective.

Proposition 2.3 Soit 𝑓 ∈ LK (E, F) et 𝑣1, 𝑣2, . . . , 𝑣𝑝 ∈ 𝐸. Alors,

𝑓(𝑣𝑒𝑐𝑡(𝑣1 , 𝑣2 , . . . , 𝑣𝑝 )) = 𝑣𝑒𝑐𝑡(𝑓(𝑣1 ), 𝑓(𝑣2), . . . , 𝑓(𝑣𝑝 )).

Preuve : Si 𝑦 ∈ 𝑣𝑒𝑐𝑡(𝑣1, 𝑣2, . . . , 𝑣𝑝 ), le vecteur 𝑦 s’é́crit 𝑦 = 𝜆1𝑣1 + · · · + 𝜆𝑝 𝑣𝑝

avec 𝜆𝑖 ∈ 𝐾. On a par linéarité de 𝑓 : 𝑓(𝑦) = 𝜆1𝑓(𝑣1) + · · · +𝜆𝑝𝑓(𝑣𝑝).

Ainsi, 𝑓(𝑦) ∈ 𝑣𝑒𝑐𝑡(𝑓(𝑣1 ), 𝑓(𝑣2 ), . . . , 𝑓(𝑣𝑝 )).

Inversement, si 𝑦 ∈ 𝑣𝑒𝑐𝑡(𝑓(𝑣1), 𝑓(𝑣2), . . . , 𝑓(𝑣𝑝 )), il existe λ1 , . . . , λp tels que

𝑦 = 𝜆1𝑓(𝑣1) + · · · +𝜆𝑝𝑓(𝑣𝑝). D’où, puisque 𝑓 est linéaire, 𝑦 = 𝑓(𝜆1 𝑣1 +· · ·


+𝜆𝑝𝑣𝑝 ).

Or, 𝜆1𝑣1 + · · · + 𝜆𝑝 𝑣𝑝 ∈ 𝑣𝑒𝑐𝑡(𝑣1, 𝑣2 , . . . , 𝑣𝑝 ) et donc 𝑦 ∈ 𝑓(𝑣𝑒𝑐𝑡(𝑣1, 𝑣2 , . . . , 𝑣𝑝 )).

On a ainsi montré l’é́galité cherchée.

Proposition 2.4 Soit 𝑓 ∈ LK (E, F).


1) Supposons f injective, Si (𝑢1 , 𝑢2, . . . , 𝑢𝑝 ) est une famille libre de E, a l o r s la famille
(𝑓(𝑢1), 𝑓(𝑢2), . . . , 𝑓(𝑢𝑝)) est une famille libre de F.
2) Supposons f surjective, Si (𝑣1 , 𝑣2, . . . , 𝑣𝑙 ) est une famille génératrice de E, a l o r s la
famille (𝑓(𝑣1), 𝑓(𝑣2), . . . , 𝑓(𝑣𝑙 )) est une famille génératrice de F.

Docteur Yao Aubin N’DRI Page 51


3) Si f est un isomorphisme linéaire, l’image d’une base de E est une base de F.

Preuve de 1) Soit λ1, . . . , λp ∈ K tels que 𝜆1 𝑓(𝑢1 ) + · · · +𝜆𝑝𝑓(𝑢𝑝 ) = 0𝐹 .


Puisque 𝑓 est linéaire, nous avons donc : 𝑓(𝜆1 𝑢1 + · · · + 𝜆𝑝 𝑢𝑝 ) = 0𝐹 . Puisque, 𝑓
est injective, nous obtenons 𝜆1 𝑢1 + · · · + 𝜆𝑝 𝑢𝑝 = 0𝐸 . La famille (𝑢1 , 𝑢2 , . . . , 𝑢𝑝 )
é t a n t libre, il en résulte λ1 = · · · = λp = 0. Cela assure que (𝑓(𝑢1), 𝑓(𝑢2), . . . , 𝑓(𝑢𝑝 ))
est une famille libre.

Preuve de 2) Soit 𝑦 ∈ 𝐹. Comme 𝑓 est surjective, il existe 𝑥 ∈ 𝐸 tel que 𝑦 = 𝑓(𝑥).


Puisque (v1, v2, . . . , vp ) est une famille génératrice de E, il existe λ1 , . . . , λp ∈ K tels
que x = λ1v1 + · · · + λpvp. Ainsi, 𝑦 = 𝑓(𝑥) = 𝑓(𝜆1 𝑣1 + · · · +𝜆𝑝 𝑣𝑝 ).

L’application 𝑓 é t a n t l i n é a i r e , nous obtenons,


𝑦 = 𝜆1 𝑓(𝑣1 ) +· · · +𝜆𝑝 𝑓(𝑣𝑝 ).

Cela montre que tout 𝑦 ∈ 𝐹 est combinaison linéaire de 𝑓(𝑣1 ), 𝑓(𝑣2 ), . . . , 𝑓(𝑣𝑝 ).

La famille (𝑓(𝑣1 ), 𝑓(𝑣2 ), . . . , 𝑓(𝑣𝑝 )) est donc une famille génératrice de 𝐹.

3 Bases, dimension et applications linéaires

Proposition 3.1 (Théorème du rang)

Soit E et F deux K-espaces vectoriels. On suppose E de dimension n et

𝑓 ∈ LK (E, F). Alors,

𝑑𝑖𝑚𝐾 (𝐸) = 𝑑𝑖𝑚𝐾 (𝑘𝑒𝑟 𝑓) + 𝑟𝑔(𝑓).

Corollaire 3.1 Soit E et F deux K-espaces vectoriels de même dimension. Soit


𝑓 ∈ LK (E, F). Alors, les propositions suivantes sont é quivalentes :

1) 𝑓 est injective ;

2) 𝑓 est surjective ;

3) 𝑓 est un isomorphisme.

Preuve 1 ⇒ 2 : Si 𝑓 est injective, 𝑘𝑒𝑟(𝑓) = {0𝐸}. Donc, 𝑑𝑖𝑚𝐾(𝑘𝑒𝑟 𝑓) = 0. Il


r é sulte du Théorème du rang que 𝑑𝑖𝑚𝐾 (𝐸) = 𝑟𝑔(𝑓) = 𝑑𝑖𝑚𝐾 (𝑖𝑚𝑓).
Comme E et F ont même dimension, 𝑑𝑖𝑚𝐾 (𝑖𝑚𝑓) = 𝑑𝑖𝑚𝐾 (𝐹). Ainsi, 𝑖𝑚𝑓 est un
sous-espace vectoriel de F qui a la même dimension que F. Il en résulte que
𝑖𝑚𝑓 = 𝐹. C'est-à-dire que 𝑓 est surjective.

Docteur Yao Aubin N’DRI Page 52


Preuve 2 ⇒ 3. Si f est surjective, 𝑖𝑚𝑓 = 𝐹 et 𝑑𝑖𝑚𝐾 (𝑖𝑚𝑓) = 𝑑𝑖𝑚𝐾 (𝐹). Comme E et F, ont
même dimension, on obtient 𝑑𝑖𝑚𝐾 (𝑖𝑚𝑓) = 𝑑𝑖𝑚𝐾 (𝐸). Il résulte du Théorème du rang que,
𝑑𝑖𝑚𝐾 (𝑘𝑒𝑟𝑓) = 0.

Ainsi, 𝑘𝑒𝑟𝑓 = {0𝐸 }. Il résulte encore de la proposition 2.2 que 𝑓 est injective. Etant injective

et surjective, 𝑓 est donc bijective. C'est un isomorphisme.

Preuve 3 ⇒1 : Si 𝑓 est isomorphisme, 𝑓 est bijective et en particulier injective.


Cela montre que les trois propriétés sont équivalentes.

Exercice corrigé 1

On considère l’application linéaire de ℝ4 vers ℝ3 définie par :∀ (𝑥, 𝑦, 𝑧, 𝑡) ∈ ℝ4 ,

𝑓(𝑥, 𝑦, 𝑧, 𝑡) = (𝑥 + 𝑦 + 𝑧 + 𝑡 ; 𝑥 − 𝑦 + 𝑧 − 𝑡 ; 𝑥 − 𝑦).

1) Déterminer le noyau de 𝑓.
2) L’application 𝑓 est-elle injective ? Justifier votre réponse.
3) Déterminer le rang de 𝑓. L’application 𝑓 est-elle surjective ?
4) Trouver Im(𝑓).

Solution de l’Exercice corrigé 1


1) Déterminons le noyau de 𝑓 ∶ ker(𝑓).
ker(f) = {(x, y, z, t) Є ℝ4 ; f(x, y, z, t) = (0,0,0) }
x+y+z+t= 0
⇔ {x − y + z − t = 0 ⇔ x = y = −z = −t.
x−y= 0

On a ker(f) = {(x, x, −x, −x) ∈ ℝ4 ; x ∈ ℝ } = vect((1,1, −1, −1)).

Comme (1,1, −1, −1) ≠ 0ℝ4 , il forme une base de ker(f).

2) L′ application 𝑓 n’est pas injective car ker(f) ≠ {0}.

3) Le théorème du rang pour l’application linéaire 𝑓 donne


rg(f) + dim(ker(f)) = dim(ℝ4 ) = 4. Donc, rg(f) = 4 − dim(ker(f)) = 3 = dim(ℝ3 ).

Donc 𝑓 est surjective.


𝑥
𝑦
4) 𝑖𝑚(𝑓) = 𝑓 (ℝ4 ) = {𝑓 ( 𝑧 ) , (𝑥, 𝑦, 𝑧, 𝑡) ∈ ℝ4 } =
𝑡
𝑥+𝑦+𝑧+𝑡 1 1 1 1
𝑖𝑚(𝑓) = {(𝑥 − 𝑦 + 𝑧 − 𝑡 )} = {𝑥 (1) + 𝑦 (−1) + 𝑧 (1) + 𝑡 (−1)}.
𝑥−𝑦 1 −1 0 0

Docteur Yao Aubin N’DRI Page 53


𝑑𝑖𝑚(𝑖𝑚(𝑓)) = 3, donc il faut choisir trois vecteurs linéairement indépendants parmi
1 1 1 1
(1) , (−1) , (1) , (−1) pour former une base de 𝑖𝑚(𝑓).
1 −1 0 0
Ainsi, la famille (u1 , u2 , u3 ) forme une base de Im(f) avec u1 = (1,1,1), u2 = (1, −1, −1) et
u3 = (1, −1,0).

Définition 3.1 Soit E et F deux K-espaces vectoriels. On suppose donnée une base
ℬ = (𝑒1 , … , 𝑒𝑛 ) de E et une base ℬ ′ = (𝑒′1 , … , 𝑒′𝑚 ) de F. Soit 𝑓 ∈ LK (E, F). On appelle
matrice de 𝑓 dans les bases ℬet ℬ′, la matrice notée 𝑀(𝑓, ℬ ′ , ℬ) ∈ 𝑀𝑚,𝑛 (𝐾) définie comme
suit : la i-ème colonne de 𝑀(𝑓, ℬ ′ , ℬ) est formée des coordonnées de 𝑓(𝑒𝑖 ) dans la base ℬ′.

On dit encore que 𝑀(𝑓, ℬ ′ , ℬ)est la matrice de 𝑓 avec comme base d'arrivée ℬ ′ et base de

départ ℬ.

Proposition 3.2 Soit E et F deux K-espaces vectoriels. On suppose donnée une base
ℬ = (𝑒1 , … , 𝑒𝑛 ) de E et une base ℬ ′ = (𝑒′1 , … , 𝑒′𝑚 ) de F.
𝑥1
Soit 𝑋 = ( ⋮ ) la matrice colonne formée des coordonnées du vecteur 𝑢 dans la base ℬ.
𝑥𝑛
𝑦1
Soit 𝑌 = ( ⋮ ) la matrice colonne formée des coordonnées du vecteur 𝑓(𝑢) dans la base ℬ’.
𝑦𝑚
Alors, 𝑌 = 𝑀(𝑓, ℬ ′ , ℬ)𝑋.

Preuve Soit 𝑎𝑗𝑖 le terme de j-ème ligne et de la i-ème colonne de 𝑀(𝑓, ℬ ′ , ℬ). Par définition,
les coordonnées de 𝑓(𝑒𝑖 ) dans la base ℬ’ sont :
 a1i 
 
  . Soit u∈ , on a f (u)  f ( x1e1  ...  xnen )  x1 f (e1 )  ...  xn f (en ) . On obtient,
a 
 mi 
 y1   a11   a1n   a11 x1  ...  a1n xn   x1 
         
   x1    ...  xn      𝑀(𝑓, ℬ , ℬ)

 .
y  a   a   a x  ...  a x  x 
 m  m1   mn   m1 1 mn n   n

Définition 3.2 Soit E un K-espace vectoriel et ℬ = (𝑒1 , … , 𝑒𝑛 ) est une base de E.


Soit 𝑓 ∈ LK(E). On appelle matrice de l'endomorphisme 𝑓 dans la base ℬ la matrice notée
𝑀(𝑓, ℬ)∈ Mn(K) définie comme suit : la i-ème colonne de 𝑀(𝑓, ℬ) est formée des coordonnées
de 𝑓(𝑒𝑖 ) dans la base ℬ. Cette matrice est appelée matrice de 𝑓 dans la base ℬ.

En effet, soit E un K-espace vectoriel et ℬ = (𝑒1 , … , 𝑒𝑛 ) est une base de E et 𝑓 ∈ LK(E).

Docteur Yao Aubin N’DRI Page 54


 x1 
 
Soit X    la matrice colonne formée des coordonnées du vecteur 𝑢 dans la base ℬ et
x 
 n
 y1 
 
Y    la matrice colonne formée des coordonnées du vecteur 𝑓(𝑢) dans la même base ℬ.
y 
 m
Puisque 𝑀(𝑓, ℬ) = 𝑀(𝑓, ℬ , ℬ) on a, 𝑌 = 𝑀(𝑓, ℬ)𝑋.

Exemple Considérons l'application linéaire définie par :

𝑥1 + 2𝑥2
2 3
𝑥1
𝑓: ℝ ⟶ ℝ , (𝑥 ) ↦ ( 1 + 4𝑥2 ).
3𝑥
2
5𝑥1 + 6𝑥2

Notons ℬ = (𝑒1 , 𝑒2 ) la base canonique de ℝ2 et ℬ ′ = (𝑒′1 , 𝑒′2 , 𝑒′3 )la base canonique de ℝ3 .
1
1  
On a f (e1 )  f     3   e '1  3e '2  5e '3 ,
 0  5
 
 2
0  
f  e2   f     4   2e '1  4e '2  6e '3 .
1 6
 
1 2
Ainsi, 𝑀(𝑓, ℬ′ , ℬ) = (3 4).
5 6

Plus généralement, soit 𝐴 = (𝑎𝑖𝑗 )1≤𝑖≤𝑚,1≤𝑗≤𝑛 une famille d’éléments de K, 𝐴 ∈ Mm,n(K) la

matrice de terme général aij et 𝑓 l'application linéaire f : Kn  Km ,


𝑥1 𝑎11 𝑥1 + ⋯ + 𝑎1𝑛 𝑥𝑛 𝑥1
( ⋮ )⟼( ⋮ ) = 𝐴 ( ⋮ ).
𝑥𝑛 𝑎𝑚1 𝑥1 + ⋯ + 𝑎𝑚𝑛 𝑥𝑛 𝑥𝑛

Donc si ℬ′ et ℬ sont respectivement les bases canoniques de 𝐾 𝑚 et 𝐾 𝑛 , alors


 a11 a1n 
 
𝑀(𝑓, ℬ′ , ℬ) =  .
a amn 
 m1
Exercice
Désignons par ℬ = (𝑒1 , 𝑒2 ) la base canonique de ℝ2 . Posons 𝑣1 = (2 ; 1) et 𝑣2 = (1 ; 17).
a) Montrer que ℬ′ = (𝑣1 , 𝑣2 ) est une base de ℝ2 .
b) Soit 𝑓 ∈ LK(ℝ2 ) définie par 𝑓(𝑒1 ) = 𝑣1 et 𝑓(𝑒2 ) = 𝑣2 .
Calculer les matrices 𝑀(𝑓, ℬ′ , ℬ), 𝑀(𝑓, ℬ , ℬ′), 𝑀(𝑓, ℬ) et 𝑀(𝑓, ℬ′)
c) Calculer les matrices 𝑀(𝐼𝑑ℝ2 , ℬ′ , ℬ) et 𝑀(𝐼𝑑ℝ2 , ℬ , ℬ′).

Docteur Yao Aubin N’DRI Page 55


Proposition 3.3 Soit E et F deux K-espaces vectoriels, ℬ une base de E et ℬ′ une
base de F. Soit 𝑓, 𝑔 ∈ LK(E, F) et λ ∈ K, on a :

𝑀(𝑓 + 𝑔, ℬ′, ℬ) = 𝑀(𝑓, ℬ′, ℬ) + 𝑀(𝑔, ℬ′, ℬ)et 𝑀(𝜆𝑓, ℬ′, ℬ) = 𝜆𝑀(𝑓, ℬ′, ℬ).

Si 𝐺 est un troisième espace vectoriel, ℬ" une base de 𝐺 et 𝑔 ∈ LK (F, G), a l o r s


𝑀(𝑔 ∘ 𝑓, ℬ" , ℬ) = 𝑀(𝑔, ℬ" , ℬ′) × 𝑀(𝑓, ℬ′ , ℬ).

Proposition 3.4 Soit E et F deux K-espaces vectoriels, ℬ = (𝑒1 , … , 𝑒𝑛 ) une base de E et


ℬ ′ = (𝑒′1 , … , 𝑒′𝑚 ) une base de F. L'application, de LK (E, F) ⟶ 𝑀𝑚,𝑛 (𝐾) qui à
𝑓 ↦ 𝑀(𝑓, ℬ′, ℬ) est un isomorphisme.

Remarques

i) On notera que deux applications 𝑓, 𝑔 ∈ LK (E, F) sont égales si et seulement si leurs


matrices 𝑀(𝑓, ℬ′, ℬ) et 𝑀(𝑔, ℬ′, ℬ) sont égales.

ii) Soit E un K-espace vectoriel de dimension n. La matrice de 𝐼𝑑𝐸 dans toutes les bases
de E est la matrice 𝐼𝑛 .

Proposition 3.5 Soit E un K-espace vectoriel et ℬune base de E. Un endomorphisme

𝑓 ∈ LK (E) est un isomorphisme si et seulement si 𝑀(𝑓, ℬ) est inversible. On a alors,

𝑀(𝑓 −1 , ℬ) = 𝑀 −1 (𝑓, ℬ).

4 Matrice d’une application linéaire et changement de bases

Définition 4.1 Soit E un K-espace vectoriel, ℬ = (𝑒1 , … , 𝑒𝑛 ) et ℬ ′ = (𝑒′1 , … , 𝑒′𝑚 ) deux bases
de E. On appelle matrice de passage de la base ℬ à la base ℬ′ la matrice P de 𝑀𝑛 (𝐾) dont la
i-ème colonne est formée des coordonnées de 𝑒′𝑖 dans la base ℬ. La matrice P est inversible et
𝑃−1 est la matrice de passage de la base ℬ′ à la base ℬ.

On peut observer que P est la matrice de l’application linéaire identité avec ℬ′ comme base de
départ et ℬ comme base d’arrivée. Autrement dit, 𝑃 = 𝑀(𝐼𝑑𝐸 , ℬ, ℬ′).

L’intérêt de cette matrice est que si X est la matrice colonne des coordonnées d’un vecteur 𝑢 de
E dans la base ℬ et 𝑋’ la matrice colonne de ses coordonnées dans la base ℬ′, on a :
𝑋 = 𝑃𝑋’ et 𝑋’ = 𝑃−1 𝑋.

Proposition 4.1 Soit E et F deux K-espaces vectoriels. Soit ℬ1 et ℬ′1 deux bases respectivement
de E et F et 𝐴 = 𝑀(𝑓, ℬ′1 , ℬ1 ) la matrice de 𝑓 avec base de départ ℬ1 et base d’arrivée ℬ′1 .

Docteur Yao Aubin N’DRI Page 56


Soit ℬ2 et ℬ′2 deux nouvelles bases respectivement de E et F et 𝐵 = 𝑀(𝑓, ℬ′2 , ℬ2 ) la matrice
de 𝑓 avec la nouvelle base de départ ℬ2 et la nouvelle base d’arrivée ℬ′2 .
Soit P la matrice de passage de la base ℬ1 à la base ℬ2 et Q la matrice de passage de la base ℬ′1
à la base ℬ′2 .Soit 𝑓 ∈ LK (E, F), alors : 𝐵 = 𝑄 −1 𝐴𝑃 et 𝐴 = 𝑄𝐵𝑃 −1 .

Corollaire 4.1 Soit E un K-espace vectoriel, ℬ1 une base de E et ℬ2 une deuxième base de E
(dite une nouvelle base). Soit P la matrice de passage de la base ℬ1 à la base ℬ2 . Soit LK (E),
𝐴 la matrice de 𝑓 dans la base ℬ1 et 𝐵 la matrice de 𝑓 dans la base ℬ2 . Alors 𝐵 = 𝑃−1 𝐴𝑃 et
𝐴 = 𝑃𝐵𝑃−1 .

Exercice corrigé 2
Soit dans ℝ3 les vecteurs : 𝑢 = (0, 1, 1) ; 𝑣 = (2, 0, −1) et 𝑤 = (2, 1, 1).
Montrer que {𝑢, 𝑣, 𝑤} est une base ℬ de ℝ3 .
Soit 𝑓 ∈ ℒ(ℝ3 ) défini par : 𝑓(𝑢) = 𝑤 ; 𝑓(𝑣) = 7𝑢 + 4𝑣 − 3𝑤 𝑒𝑡 𝑓(𝑤) = 𝑤.
2.a) Déterminer la matrice de f dans la base ℬ.
2.b) On pose 𝑒1 = −𝑢 + 𝑤 ; 𝑒2 = 2𝑢 + 𝑣 − 𝑤 ; 𝑒3 = −𝑢 − 𝑣 + 𝑤.
Déterminer les coordonnées dans ℬ de 𝑓(𝑒1 ) ; 𝑓(𝑒2 ) ; 𝑓(𝑒3 ).
3.a) Calculer les coordonnées dans la base canonique de ℝ3 des vecteurs
𝑒1 ; 𝑒2 ; 𝑒3 ; 𝑓(𝑒1 ) ; 𝑓(𝑒1 ) ; 𝑓(𝑒3 ).
3.b) Quelle est la matrice de f dans la base canonique de ℝ3 ?
3.c) Retrouver cette matrice par une formule du cours.
4) Déterminer le noyau et l’image de f.

1) Montrons que {𝑢, 𝑣, 𝑤} est une base ℬ de ℝ3 .

Soient 𝛼, 𝛽, 𝛾 ∈ ℝ tels que 𝛼𝑢 + 𝛽𝑣 + 𝛾𝑤 = 0ℝ3 . On a,

2𝛽 + 2𝛾 = 0 (𝐿1)
{ 𝛼+𝛾 = 0 (𝐿2)
𝛼−𝛽+𝛾 = 0 (𝐿3)

(L2) – (L3) donne 𝛽 = 0 dans (L1), on trouve 𝛾 = 0 et par suite 𝛼 = 0 dans (L2).

Donc {𝑢, 𝑣, 𝑤} est une famille libre de ℝ3 . Par conséquent {𝑢, 𝑣, 𝑤} est une base ℬ de ℝ3 .

N. B. On peut aussi montrer que le déterminant des trois vecteurs est différent de 0 pour
conclure

2) Soit 𝑓 ∈ ℒ(ℝ3 ) défini par : 𝑓(𝑢) = 𝑤 ; 𝑓(𝑣) = 7𝑢 + 4𝑣 − 3𝑤 𝑒𝑡 𝑓(𝑤) = 𝑤.

2.a) Déterminons la matrice de f dans la base ℬ.

0 7 0
𝑀(𝑓, ℬ ) = 𝐵 = (0 4 0).
1 −3 1
2.b) On pose 𝑒1 = −𝑢 + 𝑤 ; 𝑒2 = 2𝑢 + 𝑣 − 𝑤 ; 𝑒3 = −𝑢 − 𝑣 + 𝑤.

Déterminons les coordonnées dans ℬ de 𝑓(𝑒1 ) ; 𝑓(𝑒2 ) ; 𝑓(𝑒3 ).

Docteur Yao Aubin N’DRI Page 57


0
𝑓(𝑒1 ) = −𝑓(𝑢) + 𝑓(𝑤) = −𝑤 + 𝑤 = 0 ; donc 𝑓(𝑒1 ) = (0).
0
7
) )
𝑓(𝑒2 = 2𝑓(𝑢) + 𝑓(𝑣) − 𝑓(𝑤) = 7𝑢 + 4𝑣 − 2𝑤 ; donc 𝑓(𝑒2 = ( 4 ).
−2
−7
𝑓(𝑒3 ) = −𝑓(𝑢) − 𝑓(𝑣) + 𝑓(𝑤) = −7𝑢 − 4𝑣 + 3𝑤 ; 𝑓(𝑒3 ) = (−4).
3
N. B. On peut aussi utiliser le produit 𝑴(𝒇, 𝓑 )𝒆𝒊 pour i=1, 2, 3 avec les coordonnées des
𝒆𝒊 dans 𝓑.

3.a) Calculer les coordonnées dans la base canonique de ℝ3 des vecteurs

2 0 0
𝑒1 = −𝑢 + 𝑤 = (0) ; 𝑒2 = 2𝑢 + 𝑣 − 𝑤 = (1) ; 𝑒3 = (0).
0 0 1
N. B. On peut aussi utiliser la formule
X=PX’ 𝒂𝒗𝒆𝒄 𝑷 𝒍𝒂 𝒎𝒂𝒕𝒓𝒊𝒄𝒆 𝒅𝒆 𝒑𝒂𝒔𝒔𝒂𝒈𝒆 𝒅𝒆 𝒍𝒂 𝒅𝒂𝒔𝒆 (𝒆𝟏 , 𝒆𝟐 , 𝒆𝟑 ) à la base 𝓑.
0 4
𝑓(𝑒1 ) = 0ℝ3 = (0) ; 𝑓(𝑒2 ) = 7𝑢 + 4𝑣 − 2𝑤 = (5) ;
0 1
−2
𝑓(𝑒3 ) = −7𝑢 − 4𝑣 + 3𝑤 = (−4) .
0
3.b) Déterminons la matrice de f dans la base canonique de ℝ3 .

𝟎 𝟒 −𝟐
On déduit de la question 3.a) que 𝑴(𝒇, 𝓑′ ) = 𝑨 = (𝟎 𝟓 −𝟒).
𝟎 𝟏 𝟎
3.c) Retrouvons cette matrice par une formule du cours.

D’après la formule de changement de bases, 𝐴 = 𝑃𝐵𝑃−1 avec

0 2 2 −1/2 2 −1
𝑃 = (1 0 1) et 𝑃−1 = ( 0 1 −1).
1 −1 1 1/2 −1 1

4) Déterminons le noyau et l’image de f.

𝑥 𝑥 𝑥 0 4 −2 𝑥 0 1
𝐾𝑒𝑟(𝑓) = {(𝑦) , 𝑓 (𝑦) = 0ℝ3 } = {(𝑦) , (0 5 −4) (𝑦) = (0)} = 𝑣𝑒𝑐𝑡 ((0)).
𝑧 𝑧 𝑧 0 1 0 𝑧 0 0

4 −2
On déduit que 𝐼𝑚(𝑓) = 𝑣𝑒𝑐𝑡 ((5) , (−4)).
1 0

Docteur Yao Aubin N’DRI Page 58


Chapitre 5 POLYNOMES ET FRACTIONS

RATIONNELLES

L’objectif principal de ce chapitre est de présenter le vocabulaire et les techniques permettant


de décomposer les fractions rationnelles en éléments simples, en vue, par exemple, de calculer
des primitives et des intégrales de telles fonctions. Il faut pour cela une bonne maitrise du calcul
algébrique élémentaire (calculs sur les fractions, identités remarquables, factorisations,…). Des
connaissances de base sur les nombres complexes, et sur les notions de fonction et de domaine
de définition. Des acquis solides concernant les polynômes à coefficient réels et leur
manipulation (recherche de zéros et de leurs ordres de multiplicité, factorisation, division
euclidienne, …).

A l’issue de l’apprentissage, on doit être capable :

 De décrire les différentes étapes de la décomposition d’une fraction rationnelle avec un


vocabulaire précis.
 De donner la forme de la décomposition en éléments simples, dans ℝ ou dans ℂ, de
n’importe quelle fraction rationnelle de dénominateur aisément factorisable.
 D’effectuer la décomposition en éléments simples, dans ℝ ou dans ℂ, des fractions
rationnelles ne possédant qu’un nombre limité de pôles aisément identifiables.

1 Définitions et opérations sur les polynômes

Dans ce chapitre K désignera les ensembles ℝ ou ℂ. Il ne s’agit pas ici de


développer la théorie des polynômes mais seulement d’énoncer quelques résultats utiles au
calcul de primitives et d’intégrales.

1.1 Définitions

Définition 1.1

i) Un polynôme P à coefficients dans K est une expression de la forme


+∞

𝑃(𝑋) = ∑ 𝑎𝑛 𝑋 𝑛
𝑛=0
où (𝑎𝑛 )𝑛∈ℕ est une suite de scalaires tous nuls à partir d’un certain rang.

Le polynôme P ainsi défini est un polynôme à une indéterminée à coefficient dans K.

L’ensemble des polynômes à une indéterminée à coefficient dans l’ensemble K est noté 𝐾[𝑋].
● Les 𝑎𝑖 sont appelés les coefficients du polynôme.

● Si tous les coefficients a i sont nuls, P est appelé le polynôme nul, il est noté 0.

● On appelle le degré de P le plus grand entier n tel que 𝑎𝑛 ≠ 0 ; on le note

Docteur Yao Aubin N’DRI Page 59


𝑑𝑒𝑔(𝑃). Pour le degré du polynôme nul on pose par convention 𝑑𝑒𝑔(0) = −∞.
● Un polynôme de la forme 𝑃 = 𝑎0 avec 𝑎0 ∈ 𝐾 est appelé un polynôme
constant. Si 𝑎0 ≠ 0, son degré est 0.

ii) Les polynômes comportant un seul terme non nul (du type 𝒂𝒌 𝑿𝒌 ) sont appelés
monômes.

On note 𝐾𝑛 [𝑋] = {𝑃 ∈ 𝐾[𝑋], 𝑑𝑒𝑔(𝑃). ≤ 𝑛}. N o u s a l l o n s r e s t r e i n d r e n o t r e é t u d e

à l ’ e n s e m b l e 𝐾𝑛 [𝑋] q u e n o u s n o t e r o n s a u s s i 𝐾[𝑋].

Remarque Soit 𝑃(𝑋) = 𝑎𝑛 𝑋 𝑛 + 𝑎𝑛−1 𝑋 𝑛−1 + ⋯ + 𝑎2 𝑋 2 + 𝑎1 𝑋 + 𝑎0 un polynôme avec


𝑎𝑖 ≠ 0. On appelle terme dominant le monôme 𝒂𝒏 𝑿𝒏 . Le coefficient 𝑎𝑛 est appelé le
coefficient dominant de P. Si le coefficient dominant est 1, alors on dit que P est un polynôme
unitaire.
𝟕
Exemple 𝑿𝟓 − 𝟑 𝑿𝟐 + 𝟐𝑿 + 𝟐 est un polynôme de degré 5 ; 100𝑋 𝑛 − 10 est un polynôme
de degré n

1.2 Opérations sur les polynômes

Egalité Soient 𝑃(𝑋) = 𝑎𝑛 𝑋 𝑛 + 𝑎𝑛−1 𝑋 𝑛−1 + ⋯ + 𝑎2 𝑋 2 + 𝑎1 𝑋 + 𝑎0 et

𝑄(𝑋) = 𝑏𝑛 𝑋 𝑛 + 𝑏𝑛−1 𝑋 𝑛−1 + ⋯ + 𝑏2 𝑋 2 + 𝑏1 𝑋 + 𝑏0

deux polynômes à coefficient dans K. 𝑃 = 𝑄 si et seulement si 𝑎𝑖 = 𝑏𝑖 pour tout i et on dit


que P et Q sont égaux.

Addition Soient 𝑃(𝑋) = 𝑎𝑛 𝑋 𝑛 + 𝑎𝑛−1 𝑋 𝑛−1 + ⋯ + 𝑎2 𝑋 2 + 𝑎1 𝑋 + 𝑎0 et

𝑄(𝑋) = 𝑏𝑛 𝑋 𝑛 + 𝑏𝑛−1 𝑋 𝑛−1 + ⋯ + 𝑏2 𝑋 2 + 𝑏1 𝑋 + 𝑏0

deux polynômes à coefficient dans K. On définit :

(𝑃 + 𝑄)(𝑋) = (𝑎𝑛 + 𝑏𝑛 )𝑋 𝑛 + (𝑎𝑛−1 + 𝑏𝑛−1 )𝑋 𝑛−1 + ⋯ + (𝑎2 + 𝑏2 )𝑋 2 + (𝑎1 + 𝑏1 )𝑋

+ (𝑎0 + 𝑏0 )

Multiplication Soient 𝑃(𝑋) = 𝑎𝑛 𝑋 𝑛 + 𝑎𝑛−1 𝑋 𝑛−1 + ⋯ + 𝑎2 𝑋 2 + 𝑎1 𝑋 + 𝑎0 et

𝑄(𝑋) = 𝑏𝑚 𝑋 𝑚 + 𝑏𝑚−1 𝑋 𝑚−1 + ⋯ + 𝑏2 𝑋 2 + 𝑏1 𝑋 + 𝑏0

deux polynômes à coefficient dans K. On définit :

𝑃(𝑋)𝑄(𝑋) = 𝑐𝑟 𝑋 𝑟 + 𝑏𝑟−1 𝑋 𝑟−1 + ⋯ + 𝑐2 𝑋 2 + 𝑐1 𝑋 + 𝑐0 avec 𝑟 = 𝑛 + 𝑚 et

Docteur Yao Aubin N’DRI Page 60


𝑐𝑘 = ∑𝑖+𝑗=𝑘(𝑎𝑖 + 𝑏𝑗 ) pour 𝑘 ∈ {0, … , 𝑟}.

Multiplication par un scalaire Si 𝜆 ∈ 𝐾 et 𝑃(𝑋) = 𝑎𝑛 𝑋 𝑛 + 𝑎𝑛−1 𝑋 𝑛−1 + ⋯ +


𝑎2 𝑋 2 + 𝑎1 𝑋 + 𝑎0 alors 𝜆𝑃(𝑋) est le polynôme dont le i-ème coefficient est 𝜆𝑎𝑖 .

Exemple Soient 𝑃(𝑋) = 𝑎𝑋 4 + 𝑋 2 + 7𝑋 − 5 et 𝑄(𝑋) = −𝑏𝑋 2 + 𝑐𝑋 + 𝑓. On a,

𝑃(𝑋) + 𝑄(𝑋) = 𝑎𝑋 4 + (1 − 𝑏)𝑋 2 + (7 + 𝑐)𝑋 + (𝑓 − 5).

𝑃(𝑋)𝑄(𝑋) = −𝑎𝑏𝑋 6 + 𝑎𝑐𝑋 5 + (𝑎𝑓 − 𝑏)𝑋 4 + (𝑐 − 7𝑏)𝑋 3 + (𝑓 + 7𝑐 + 5𝑏)𝑋 2

+(7𝑓 − 5𝑐)𝑋 − 5𝑓.


Enfin 𝑃(𝑋) = 𝑄(𝑋) si et seulement si 𝑎 = 0 ; 𝑏 = −1 ; 𝑐 = 7 𝑒𝑡 𝑓 = −5.

Proposition 1.1 Soient 𝑃 et 𝑄 deux polynômes à coefficients dans 𝐾 on a

𝑑𝑒𝑔(𝑃 × 𝑄) = 𝑑𝑒𝑔(𝑃) + 𝑑𝑒𝑔(𝑄) e t 𝑑𝑒𝑔(𝑃 + 𝑄) ≤ 𝑚𝑎𝑥(𝑑𝑒𝑔(𝑃), deg(𝑄)).

Exercice

1) Calculer ( X + 1)5 − ( X − 1)5 .

2) Déterminer le degré de ( X2 + X + 1)n – a X2n − b X2n−1 en fonction de a et de b.

2 Racine d’un polynôme, factorisation

2.1 Racines d’un polynôme

Définition 2.1 Soit 𝑃(𝑋) = 𝑎𝑛 𝑋 𝑛 + 𝑎𝑛−1 𝑋 𝑛−1 + ⋯ + 𝑎2 𝑋 2 + 𝑎1 𝑋 + 𝑎0 . Pour 𝑥 ∈ 𝐾, on note


P( x)  an x n  an1 x n1   a2 x 2  a1 x  a0 . On associe ainsi au polynôme P une fonction
polynôme (que l’on note encore P) :

P:K  K , x an x n  an1 x n1   a2 x 2  a1 x  a0 .

Définition 2.2 Soit 𝑃 ∈ 𝐾𝑛 [𝑋] et 𝛼 ∈ 𝐾. On dit que α est une racine (ou un zéro)

de P si 𝑃(𝛼) = 0.

Proposition 2.1 𝑃(𝛼) = 0 ⇔ 𝑋 − 𝛼 divise 𝑃.

Définition 2.3 Soit 𝑘 ∈ ℕ∗ . On dit que α est une racine de multiplicité 𝑘 de P


si (𝑋 − 𝛼)𝑘 divise 𝑃 alors que (𝑋 − 𝛼)𝑘+1 ne divise pas 𝑃. Lorsque 𝑘 = 1 on parle

Docteur Yao Aubin N’DRI Page 61


d’une racine simple, lorsque 𝑘 = 2 d’une racine double, etc.

On dit aussi que α est une racine d’ordre k.

Proposition 2.2 Il y a équivalence entre :

i) 𝛼 est une racine de multiplicité 𝑘 de 𝑃.

ii) Il existe un polynôme Q tel que 𝑃(𝑋) = (𝑋 − 𝛼)𝑘 𝑄(𝑋) avec 𝑄(𝛼) ≠ 0.

iii) 𝑃(𝛼) = 𝑃′(𝛼) = 𝑃 (𝑘−1) (𝛼) = 0 𝑒𝑡 𝑃 (𝑘) (𝛼) ≠ 0.

Remarque Par analogie avec la dérivée d’une fonction, si

𝑃(𝑥) = 𝑎𝑛 𝑥 𝑛 + 𝑎𝑛−1 𝑥 𝑛−1 + ⋯ + 𝑎2 𝑥 2 + 𝑎1 𝑥 + 𝑎0 avec 𝑥 ∈ 𝐾,

𝑃′(𝑥) = 𝑛𝑎𝑛 𝑥 𝑛−1 + (𝑛 − 1)𝑎𝑛−1 𝑥 𝑛−2 + ⋯ + 2𝑎2 𝑥 + 𝑎1 avec 𝑥 ∈ 𝐾 est le polynôme dérivé
de P.

2.2 Théorème de d’Alembert-Gauss

Théorème 2.1 (Théorème de d’Alembert-Gauss).

Tout polynôme à coefficients complexes de degré n ≥ 1 a au moins une racine dans


ℂ. Il admet exactement n racines si on compte chaque racine avec multiplicité.

Exemple 𝑃(𝑋) = 𝑋𝑛 − 1 admet n racines distinctes.

En effet sachant que P est de degré n alors par le théorème de d’Alembert-


Gauss on sait qu’il admet n racines comptées avec multiplicité. Il s’agit donc
maintenant de montrer que ce sont des racines simples. Supposons par
l’absurde que 𝛼 ∈ ℂ soit une racine de multiplicité ≥ 2. Alors P(α) = 0 et P’(α)
= 0. Donc 𝛼 𝑛 − 1 = 0 et 𝑛𝛼 𝑛−1 = 0.
De la seconde égalité on déduit α = 0, contradictoire avec la première égalité.
Donc toutes les racines sont simples. Ainsi les n racines sont distinctes.

Remarque Sur cet exemple particulier on aurait aussi pu calculer les racines qui
sont ici les racines n-ième de l’unité.

Théorème 2.2 Soit 𝑃 ∈ 𝐾𝑛 [𝑋] de degré n ≥ 1. Alors P admet au plus n racines


dans K.

Docteur Yao Aubin N’DRI Page 62


Exemple P( X )  3X 3  2 X 2  6 X  4 . Considéré comme un polynôme à coefficients dans ℝ,
P n’a qu’une seule racine (qui est simple)   2 et il se décompose en
3

 2
P( X )  3  X    X 2  2  .
 3

Si on considère maintenant P comme un polynôme à coefficients dans ℂ alors



2
  
P( X )  3  X   X  i 2 X  i 2 et admet 3 racines simples.
3

2.3 Polynômes irréductibles

Définition 2.4 Soit 𝑃 ∈ 𝐾[𝑋] un polynôme de degré ≥ 1, on dit que P est


irréductible si ses seuls diviseurs sont les constantes non nulles et les polynômes de K[X]
de la forme λP (λ ∈ K). Concrètement, cela signifie que P n’est pas factorisable.

Remarque Un polynôme irréductible P est donc un polynôme non constant dont


les seuls diviseurs de P sont les constantes ou P lui-même (à une constante
multiplicative près).

Dans le cas contraire, on dit que P est réductible ; il existe alors des polynômes 𝑄,
𝑅 de 𝐾[𝑋] tels que 𝑃 = 𝑄𝑅, avec 𝑑𝑒𝑔(𝑄) ≥ 1 et 𝑑𝑒𝑔(𝑅) ≥ 1.

Exemples Tous les polynômes de degré 1 sont irréductibles. Par conséquent il y

a une infinité de polynômes irréductibles.

X 2  1  ( X  i)( X  i) irréductible dans ℝ[X] mais réductible dans ℂ[X].

X 2  2  ( X  2)( X  2) est réductible dans ℝ[X] mais irréductible dans ℚ[X].

2.4 Théorème de factorisation

Théorème 2 . 3 Tout polynôme non constant P ∈ K[ X ] s’écrit comme un produit de


polynômes irréductibles unitaires : P   P 1 P 2 P r où λ ∈ K∗ , r ∈ N∗ , k i ∈ N∗ et les
k k k
1 2 r

𝑃𝑖 sont des polynômes irréductibles distincts. De plus cette décomposition est


unique à l’ordre près des facteurs.

Il s’agit bien sûr de l’analogue de la décomposition d’un nombre en facteurs


premiers.

Docteur Yao Aubin N’DRI Page 63


2.5 Factorisation dans ℂ[𝑋] et ℝ[𝑋]

Théorème 2 . 4 Les polynômes irréductibles de ℂ[𝑋]sont les polynômes de degré


1. Donc pour 𝑃 ∈ ℂ[𝑋] de degré 𝑛≥1 la factorisation s’écrit
P   ( X  1 )  X   2   X   r  , où 1, ,r sont les racines distinctes de P et
k1 k2 kr

k1 , ..., k r sont leurs multiplicités.

Théorème 2 . 5 Les polynômes irréductibles ℝ[𝑋] sont les polynômes de degré 1


ainsi que les polynômes de degré 2 ayant un discriminant ∆ < 0.

Exemple a) 𝑃(𝑋) = 2𝑋 4 (𝑋 − 1)3 (𝑋 2 + 1)2 (𝑋 2 + 𝑋 + 1) est déjà décomposé en


facteurs irréductibles dans ℝ[𝑋] alors que sa décomposition dans ℂ[𝑋] est
2i
1  i 3
𝑃(𝑋) = 2𝑋 4 (𝑋 − 1)3 (𝑋 + 𝑖)2 (𝑋 − 𝑖)2 (𝑋 − j)(𝑋 − 𝑗̅) où j  e 3
 .
2

b) Soit 𝑃(𝑋) = 𝑋 4 + 1.

Sur ℂ, on a
    
P( X )   X 2  i  X 2  i    X 
2 2 2 2
1  i  
 X  1  i  
 X  1  i  
 X  1  i  
 2  2  2  2 

Sur ℝ. Pour un polynôme à coefficient réels, si α est une racine alors ᾱ aussi.
Dans la décomposition ci-dessus on regroupe les facteurs ayant des racines
conjuguées, cela doit conduire à un polynôme réel, on a : P ( X ) 
    
 X 
2
2
1  i  
 X
2
2
1  i  
 X
2
2
1  i  
 X
2
2
 
1  i    X 2  2 X  1 X 2  2 X  1 
    
qui est la factorisation de P dans ℝ[𝑋].

 1

Exercice Factoriser P  X   (2 X 2  X  2) 2  X 4  1 et Q  X   3 X  1  X  X   
3 2 2 2

 4

dans ℂ[𝑋]. Même question dans ℝ[𝑋].

3 Fractions rationnelles

Définition 3.1. Une fraction rationnelle à coefficients dans 𝐾 est une expression de la forme
𝑃(𝑋)
𝐹(𝑋) = 𝑄(𝑋) où 𝑃, 𝑄 ∈ 𝐾[𝑋] sont deux polynômes et 𝑄 ≠ 0.

Docteur Yao Aubin N’DRI Page 64


Toute fraction rationnelle se décompose comme une somme de fractions rationnelles
élémentaires que l’on appelle des « éléments simples ». Mais les éléments simples sont
différents sur ℂ ou sur ℝ.

3.1 Décomposition en éléments simples sur ℂ

Théorème 3.1 (Décomposition en éléments simples sur ℂ ).


𝑃(𝑋)
Soit une fraction rationnelle avec 𝑃, 𝑄 ∈ ℂ[𝑋], 𝑝𝑔𝑐𝑑(𝑃, 𝑄) = 1 et
𝑄(𝑋)

𝑄(𝑋) = (𝑋 − 𝛼1 )𝑘1 × ⋯ × (𝑋 − 𝛼𝑟 )𝑘𝑟 .

Alors il existe une et une seule écriture :

𝑃(𝑋) 𝑏1 𝑏2 𝑏𝑘1
= 𝐸(𝑋) + + + ⋯ + +
𝑄(𝑋) (𝑋 − 𝛼1 )𝑘1 (𝑋 − 𝛼1 )𝑘1 −1 (𝑋 − 𝛼1 )
𝑐1 𝑐2 𝑐𝑘2
+ + ⋯ + +⋯
(𝑋 − 𝛼2 )𝑘2 (𝑋 − 𝛼2 )𝑘2 −1 (𝑋 − 𝛼2 )
𝑏𝑖
Le polynôme E s’appelle la partie polynomiale (ou partie entière). Les termes (𝑋−𝛼1 )𝑘𝑖
et
𝑐𝑖
(𝑋−𝛼2 )𝑘𝑖
sont les éléments simples de première espèce sur ℂ.

Remarque Comment se calcule la décomposition ? En général on commence par déterminer la


𝑃(𝑋)
partie polynomiale 𝐸(𝑋) de .
𝑄(𝑋)

Tout d’abord si 𝑑𝑒𝑔(𝑄) > 𝑑𝑒𝑔(𝑃) alors 𝐸(𝑋) = 0. Si 𝑑𝑒𝑔(𝑃) ≤ 𝑑𝑒𝑔(𝑄) alors on effectue
𝑃 𝑅
la division euclidienne de P par Q. On obtient : 𝑃 = 𝑄𝐸 + 𝑅 donc = 𝐸 + 𝑄 où
𝑄

𝑑𝑒𝑔(𝑅) < 𝑑𝑒𝑔(𝑄). La partie polynomiale est donc le quotient de cette division.

Voyons en détails sur deux exemples comment effectuer la décomposition.

Exemple 1 Décomposons sur ℂ la fraction

𝑃(𝑋) 𝑋 5 − 2𝑋 3 + 4𝑋 2 − 8𝑋 + 11
= .
𝑄(𝑋) 𝑋 3 − 3𝑋 + 2

Première étape On compare les degrés de P et de Q. Ici 𝑑𝑒𝑔(𝑃) ≥ 𝑑𝑒𝑔(𝑄), on calcule la


division euclidienne de P par Q.

Docteur Yao Aubin N’DRI Page 65


P X  2X 2  5X  9
On obtient :  X 2 1 3 .
Q X  X  3X  2

Deuxième étape (Factorisation du dénominateur). Q a pour racine évidente 1 (racine double)


et 2 (racine simple) et se factorise donc ainsi Q( X )   X  1  X  2 .
2

Troisième étape (Décomposition théorique en éléments simples).

Le théorème de décomposition en éléments simples nous dit qu’il existe une unique
décomposition :

P X  2X 2  5X  9 a b c
 X 2 1  X 2 1   .
Q X   X  1  X  2 
2
 X  1  X  1  X  2 
2

Il reste à trouver les nombres 𝑎, 𝑏, 𝑐.

Quatrième étape (détermination des coefficients).

Une première façon de déterminer 𝑎, 𝑏 et 𝑐, est de réduire la fraction


au même dénominateur et de l’identifier avec 2 X 25 X  9 .
2
a b c
 
 X  1  X  1  X  2  X  1  X  2 
2

Cette méthode est souvent la plus longue.

Voici une autre méthode plus efficace.

Notons

H X  2X 2  5X  9 a b c
On a     .
Q  X   X  1  X  2   X  1
2 2
 X  1  X  2 

H X 
par  X  1 et on évalue en 𝑥 = 1.
2
Pour déterminer 𝑎 on multiplie la fraction
Q X 

On en déduit 𝑎 = 2.

On fait le même processus pour déterminer 𝑐 : on multiplie par (𝑋 + 2) et on évalue en −2. On


calcule de deux façons et lorsque l’on évalue 𝑥 = −2 on obtient 𝑐 = 3.

Comme les coefficients sont uniques tous les moyens sont bons pour les déterminer.

H X 
On évalue enfin la décomposition théorique de en 𝑥 = 0, on obtient
Q X 

𝑏 = −1. Finalement,

P X  2 1 3
 X 2 1   .
Q X   X  1  X  1  X  2 
2

Docteur Yao Aubin N’DRI Page 66


Exemple 2 Décomposons en éléments simples sur ℂ, la fraction rationnelle suivante :

𝑋6 + 5
𝐺(𝑋) = .
(𝑋 + 1)(𝑋 + 2)(𝑋 2 + 3)
On a,
deg(𝑋 6 + 5) = 6 ≥ 4 = 𝑑𝑒𝑔(𝑋 4 + 3𝑋 3 + 5𝑋 2 + 9𝑋 + 6)

Donc on effectue une division euclidienne avant la décomposition.


Après division, on obtient :

𝑋6 + 5 2
−6𝑋 3 + 𝑋 2 − 18𝑋 − 19
𝐺(𝑋) = = 𝑋 − 3𝑋 + 4 + .
(𝑋 + 1)(𝑋 + 2)(𝑋 2 + 3) (𝑋 + 1)(𝑋 + 2)(𝑋 + 𝑖√3)(𝑋 − 𝑖√3)

On a
−6𝑋 3 + 𝑋 2 − 18𝑋 − 19 𝑎 𝑏 𝑐 𝑑
𝐻(𝑋) = 2
= + + + .
(𝑋 + 1)(𝑋 + 2)(𝑋 + 3) 𝑋 + 1 𝑋 + 2 𝑋 + 𝑖√3 𝑋 − 𝑖√3

−6𝑋 3 +𝑋 2 −18𝑋−19 3
● lim (𝑋 + 1)𝐻(𝑋) = lim (𝑋+2)(𝑋 2 +3)
= 𝑎 = 2.
𝑋→−1 𝑋→−1

−6𝑋 3 +𝑋 2 −18𝑋−19 69
● lim (𝑋 + 2)𝐻(𝑋) = lim (𝑋+1)(𝑋 2 +3)
=𝑏= .
𝑋→−2 𝑋→−2 7

−6𝑋 4 +𝑋 3 −18𝑋 2 −19𝑋


● lim 𝑋𝐻(𝑋) = lim = 𝑎 + 𝑏 + 𝑐 + 𝑑 = −6.
𝑋→+∞ 𝑋→+∞ (𝑋+1)(𝑋+2)(𝑋 2 +3)

−87
On déduit que 𝑐 + 𝑑 = .
7
−403𝑖√3
● On calcule H(0) pour obtenir 𝑐 − 𝑑 = . Le reste est à TERMINER.
42

3.2 Décomposition en éléments simples sur ℝ

Définition 3.2 On appelle élément simple de deuxième espèce toute fraction rationnelle
pouvant s’écrire comme le quotient d’un polynôme de degré au plus égal à 1 par un polynôme
du second degré de discriminant strictement négatif, élevé éventuellement à une puissance
entière.

Formellement, un élément simple de deuxième espèce est une fraction rationnelle 𝐹(𝑋) qui
peut s’écrire :
𝐴𝑋 + 𝐵
𝐹(𝑋) =
(𝑎𝑋 + 𝑏𝑋 + 𝑐)𝑛
2

avec 𝐴, 𝐵 ∈ ℝ ; 𝑛 ∈ ℕ∗ ; 𝑏 2 − 4𝑎𝑐 < 0.


Théorème 3.1 (Décomposition en éléments simples sur ℝ)

Docteur Yao Aubin N’DRI Page 67


𝑃(𝑋)
Soit 𝐹(𝑋) = 𝑄(𝑋) une fraction rationnelle irréductible dont le numérateur P est de degré
strictement inférieur à celui du dénominateur Q, alors F se décompose en une somme
d’éléments simples déterminés de la façon suivante :

● si 𝑥 = 𝑎 est un pôle réel d’ordre 𝑛 ∈ ℕ∗ de 𝐹, alors la décomposition de 𝐹 comportera la


somme des n éléments simples de première espèce suivante :
𝐴1 𝐴2 𝐴𝑛
+ 2
+ ⋯+
(𝑋 − 𝑎) (𝑋 − 𝑎) (𝑋 − 𝑎)𝑛

𝑎𝑣𝑒𝑐 𝐴1 , 𝐴2 , … , 𝐴𝑛 ∈ ℝ,

● si 𝑏 2 − 4𝑎𝑐 < 0 alors la décomposition de F comportera la somme des n éléments simples


de deuxième espèce suivante :
𝐵1 𝑋 + 𝐶1 𝐵2 𝑋 + 𝐶2 𝐵𝑛 𝑋 + 𝐶𝑛
2
+ 2 2
+⋯+
(𝑎𝑋 + 𝑏𝑋 + 𝑐) (𝑎𝑋 + 𝑏𝑋 + 𝑐) (𝑎𝑋 2 + 𝑏𝑋 + 𝑐)𝑛

𝑎𝑣𝑒𝑐 𝐵1 , 𝐶1 , 𝐵2 , 𝐶2 , … , 𝐵𝑛 , 𝐶𝑛 ∈ ℝ.

𝑃(𝑋)
Remarque Soit 𝐹(𝑋) = 𝑄(𝑋) une fraction rationnelle irréductible dont le numérateur P est de
degré supérieur ou égal à celui du dénominateur Q. Pour effectuer la décomposition en éléments
de simples de F, on effectue la division euclidienne de P par Q.

On obtient :

𝑃(𝑋) 𝑅(𝑋)
= 𝐸(𝑋) +
𝑄(𝑋) 𝑄(𝑋)
𝑅(𝑋)
avec 𝑑𝑒𝑔(𝑅) < 𝑑𝑒𝑔(𝑄) puis on effectue la décomposition de comme au Théorème 3.1.
𝑄(𝑋)

Exercice 1 Donner la forme générale de la décomposition en éléments simples sur ℝ de la


fraction rationnelle suivant :
𝑃(𝑋)
𝐹(𝑋) = .
(𝑋 − 1) (𝑋 + 2)5 (𝑋 2 + 𝑋 + 1)4
3

Exemple 3

P( X ) 3 X 4  5 X 3  8 X 2  5 X  3
Décomposition en éléments simples de  .
 X 2  X  1  X  1
2
Q( X )

Comme 𝑑𝑒𝑔(𝑃) < 𝑑𝑒𝑔(𝑄) alors 𝐸(𝑋) = 0. Le dénominateur est déjà factorisé sur ℝ car
X 2  X  1 est irréductible. La décomposition théorique est donc :

P( X ) aX  b cX  d e
  2  .
Q( X )  X 2  X  1 X  X  1 X  1
2

Docteur Yao Aubin N’DRI Page 68


Il faut ensuite mener au mieux les calculs pour déterminer les coefficients afin d’obtenir :

3X 4  5 X 3  8 X 2  5 X  3 2 X 1 1 3
   .
X  X  1  X  1 X  X  1 X  X 1 X 1
2 2 2 2 2

Exemple 4 Décomposer la fraction rationnelle suivante en éléments simples dans ℝ :

𝑋4 + 2
𝐹(𝑋) = .
(𝑋 + 1)(𝑋 2 + 1)2
Ici 𝑑𝑒𝑔(𝑋 4 + 2) < 𝑑𝑒𝑔((𝑋 + 1)(𝑋 2 + 1)2 ), il n’y a donc pas de division euclidienne à
effectuer. La décomposition théorique donne :

𝑋4 + 2 𝑎 𝑏𝑋 + 𝑐 𝑑𝑋 + 𝑒
𝐹(𝑋) = 2 2
= + 2 + 2 .
(𝑋 + 1)(𝑋 + 1) 𝑋 + 1 𝑋 + 1 (𝑋 + 1)2

𝑋4 + 2 3
𝟏) lim (𝑋 + 1)𝐹(𝑋) = lim = 𝑎 = .
𝑋→−1 𝑋→−1 (𝑋 2 + 1)2 4
𝑋 4 +2 3 3 3 3
𝟐) lim (𝑋 2 + 1)2 𝐹(𝑋) = lim = 2 − 2 𝑖 = 𝑑𝑖 + 𝑒. On trouve 𝑑 = − 2 et 𝑒 = 2 .
𝑋→ 𝑖 𝑋→ 𝑖 𝑋+1

1
3) lim 𝑋𝐹(𝑋) = 1 = 𝑎 + 𝑏. On tire 𝑏 = 4. On calcule 𝐹(0) = 2 = 𝑎 + 𝑐 + 𝑒. On obtient
𝑋→+∞
1
𝑐 = − 4 . Ainsi,

3 1 1 3 3
𝑋4 + 2 𝑋 − 4 −2𝑋 + 2
𝐹(𝑋) = = 4 + 4 + .
(𝑋 + 1)(𝑋 2 + 1)2 𝑋 + 1 𝑋 2 + 1 (𝑋 2 + 1)2

Exercices
1
Exercice 1 Décomposer la fraction rationnelle 𝐹(𝑋) = en éléments simples
𝑋(𝑋+1)3 (𝑋+2)

sur ℂ.
1
Exercice 2 Décomposer la fraction rationnelle 𝑄(𝑋) = .
(𝑋+2)3 (𝑋−2)3

Exercice 3 Décomposer la fraction rationnelle suivante en éléments simples dans ℂ.

𝑋4 + 2
𝐹(𝑋) = .
(𝑋 + 1)(𝑋 2 + 1)2
Exercice 4 Décomposer en élément simples sur ℂ la fraction rationnelle suivante :

𝑋4 + 1
𝐹(𝑋) = .
𝑋3 − 1

Docteur Yao Aubin N’DRI Page 69

Vous aimerez peut-être aussi