Académique Documents
Professionnel Documents
Culture Documents
Cours de Mathématiques
MPSI
Lycée Montaigne 2015-16
AIG z
P1
P2
NT
y
x
MO
Éléments de logique
AIG
Sommaire
I Notions ensemblistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1) Vocabulaire lié aux ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
II Notions de logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1) Propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2) Connecteurs logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4) Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
5) Retour sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
III Le raisonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1) Raisonnement par l’absurde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2) Raisonnement par analyse-synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3) Démontrer une implication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
NT
4) L’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
5) La récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
I NOTIONS ENSEMBLISTES
Définition 1.1
MO
Un ensemble E est une collection d’objets 1 , ceux-ci sont appelés éléments de E. Si x est un élément
de E on écrira x ∈ E (se lit « x appartient à E »), dans le cas contraire on écrira x ∉ E. Si E n’a pas
d’éléments on dira que c’est l’ensemble vide et on le notera ;. Deux ensembles E et F sont dits égaux
si et seulement si ils ont les mêmes éléments, on écrira alors E = F.
ZExemples :
– Les ensembles de nombres : N, Z, D, Q, R, C.
– L’ensemble des fonctions de R dans R : F (R, R).
– Ensembles définis en extension, comme : E = {1, 8, 6, 2} (éléments non ordonnés et devant apparaître
une seule fois dans la liste).
– Ensembles définis en compréhension, comme : E = {2k + 1 | k ∈ Z}.
1. Cependant toute collection d’objets ne constitue pas forcément un ensemble. Par exemple, le paradoxe de Bertrand Russel
a montré que l’ensemble des ensembles ne peut pas exister, sinon, la considération de l’ensemble y = {x | x ∉ x} conduit à une
absurdité.
Définition 1.2
Soient A et B deux ensembles :
– L’inclusion : on dit que A est inclus dans B tous les éléments de A sont également éléments de B,
NE
notation : A ⊂ B.
– Ensemble des parties : si A est inclus dans B, on dit que A est une partie de B. L’ensemble des
parties de B est noté P (B), donc écrire « A ⊂ E » revient à écrire « A ∈ P (B) ». Par exemple, l’ensemble
vide et B sont des parties de B, donc ; ∈ P (B) et B ∈ P (B).
– La réunion : on note A ∪ B (se lit « A union B »), l’ensemble que l’on obtient en regroupant les
éléments de A avec ceux de B, par exemple {2k + 1 | k ∈ Z} ∪ {2n | n ∈ Z} = Z.
– L’intersection : on note A ∩ B (se lit « A inter B »), l’ensemble des éléments communs à A et B.
Par exemple N ∩ Z∗ = N∗ . On dit que deux ensembles sont disjoints lorsque leur intersection est
l’ensemble vide.
– La différence : on note A \ B (se lit « A moins B »), l’ensemble des éléments qui sont dans A mais pas
dans B. Par exemple, R+ = R\] − ∞; 0[.
AIG
– Le complémentaire : lorsque A est une partie de B, la différence B \ A est appelé complémentaire
de A dans B, noté CB (A) (ou bien A). Par exemple R \ Q est l’ensemble des irrationnels.
– Le produit cartésien : le produit cartésien de A par B est l’ensemble des couples (x, y) avec x ∈ A et
y ∈ B, on le note A × B, c’est à dire A × B = {(x, y) / x ∈ E, y ∈ F}. On rappelle que (x, y) = (a, b) si et
seulement si x = a et y = b.
B A B
A
NT
A⊂B A 6⊂ B
A B A B
MO
A∪B A∩B
A B B
A
A\B CB (A)
Remarque 1.1 :
– Dire que deux ensembles A et B sont égaux, revient à dire que A est inclus dans B, et B est inclus dans A.
Donc démontrer une égalité entre deux ensembles, peut se faire en montrant une double inclusion.
NE
– Le produit cartésien se généralise à trois ensembles ou plus généralement à n ensembles :
E1 × · · · × En = {(x 1 , . . . , x n ) | x 1 ∈ E1 , . . . , x n ∈ En }
Lorsque tous les ensembles sont égaux au même ensemble E, alors on note E × · · · × E = En
2) Propriétés
AIG
De même, on a A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C). C’est la distributivité de l’intersection sur la réunion.
1) Propositions
Nous nous contenterons de la « définition » suivante :
ZExemples :
– « 2 est un entier pair » est une proposition vraie.
– « 3 est un entier pair » est une proposition fausse.
– « n est un entier pair » n’est pas une proposition car sa valeur de vérité dépend de la valeur de n, un telle
phrase est appelée prédicat portant sur la variable n à valeurs dans Z, on pourrait noter ce prédicat
P(n) par exemple.
– Si A et B désignent deux ensembles, alors la phrase A ⊂ B est une proposition (tous les éléments de A
sont éléments de B). Sa négation s’écrit A 6⊂ B (un élément de A n’est pas forcément un élément de B).
Si P est une proposition, la valeur de vérité de non(P) se déduit de celle de P conformément à la table de
vérité suivante :
P non(P)
V F
F V
2. DE MORGAN Augustus (1806 – 1871) logicien anglais.
3. Il ne doit pas y avoir d’autre alternative selon le principe du tiers exclu.
Par convention :
Dans les raisonnements mathématiques on n’écrit que des propositions vraies. Si P est une proposition,
au lieu d’écrire « P est vraie », on écrit plus simplement « P », et au lieu d’écrire « P est fausse », on écrit plus
NE
simplement « non(P) », c’est à dire la négation.
2) Connecteurs logiques
Ceux-ci permettent de relier deux propositions pour en donner une troisième.
AIG
(voire les deux), sinon on dira qu’elle fausse.
P Q P et Q P ou Q
V V V V
V F F V
F V F V
F F F F
P Q P =⇒ Q P ⇐⇒ Q
V V V V
V F F F
F V V F
F F V V
ZExemples :
– La proposition « (2 est pair) =⇒ (3 est impair) » est vraie.
MO
Principe de déduction
Soient P et Q deux propositions, si on sait que P implique Q, et que P est vraie, alors on a forcément Q
vraie d’après la définition de l’implication. C’est le principe de déduction 4 .
NE
3) Propriétés
Maintenant que nous savons ce que sont des propositions équivalentes, nous allons pouvoir établir les
propriétés suivantes :
Théorème 1.3
Soient P et Q deux propositions :
– La proposition « non(non(P)) » est équivalente à « P ».
– La proposition « non(P et Q) » est équivalente à « non(P) ou non(Q) » (1re loi de De Morgan).
– La proposition « non(P ou Q) » est équivalente à « non(P) et non(Q) » (2e loi de De Morgan).
AIG
– L’implication « P =⇒ Q » est équivalente à « (non P) ou Q ».
– La proposition « non(P =⇒ Q) » est équivalente à « P et non(Q) ».
– La proposition « P ⇐⇒ Q » est équivalente à « (P =⇒ Q) et (Q =⇒ P) ».
– La proposition « P ⇐⇒ Q » est équivalente à « non(P) ⇐⇒ non(Q) ».
Preuve : La première propriété est évidente. Les autres se montrent avec une table de vérité (à compléter en exercice) :
Théorème 1.4
Une implication et sa contraposée sont équivalentes.
Deux propositions sont équivalentes si et seulement si les implications dans les deux sens sont vraies.
4. Par contre, si P implique Q, et que P est fausse, alors on ne peut rien dire de Q.
Remarque 1.2 – Ce résultat est à connaître car très utilisé dans les raisonnements (raisonnements par contra-
position, raisonnements par double implication).
NE
4) Quantificateurs
Les quantificateurs servent à construire des propositions à partir d’un prédicat P(x), dont la variable x
prend ses valeurs dans un certain ensemble E. On rencontre :
– Le quantificateur universel : « ∀x ∈ E, P(x) » (se lit « pour tout x dans E, P(x) [sous entendu est vraie] »).
Par exemple, la proposition « ∀x ∈ R, x 2 > 0 » se lit « pour tout réel x, le carré de x est positif ou nul », ou
bien encore « le carré de tout réel est positif ».
– Le quantificateur existentiel : « ∃x ∈ E, P(x) » (se lit « il existe au moins un x de E tel que P(x) [sous
entendu est vraie] »). Par exemple, la proposition « ∃x ∈ C, x 2 = −1 », se lit « il existe au moins un nombre
complexe dont le carré vaut −1 ».
Remarque 1.3 :
AIG
– On rencontre aussi parfois la proposition « ∃!x ∈ E, P(x) » (se lit « il existe un unique x de E tel que P(x)
[sous entendu est vraie] »). Par exemple, « ∃!x ∈ R+ , x 2 = 2 ».
– On peut trouver plusieurs quantificateurs dans une même proposition. Par exemple, « ∀y ∈ R+ , ∃!x ∈
R+ , x 2 = y » traduit que tout réel positif est le carré d’un unique réel positif.
Attention !
Les propositions « ∀x ∈ A, ∃y ∈ B, P(x, y) » et « ∃y ∈ B, ∀x ∈ A, P(x, y) », n’ont pas le même sens. En effet, dans la
première le y dépend de x alors que dans la seconde il s’agit du même y pour tous les x.
ZExemples :
– L’assertion « ∀y ∈ R+ , ∃x ∈ R+ , x 2 = y » est vraie, elle traduit que tout réel positif est le carré d’au moins
un réel positif. Mais l’assertion « ∃x ∈ R+ , ∀y ∈ R+ , x 2 = y » traduit que tout réel positif est le carré d’un
même réel, ce qui est évidemment faux. Sa négation est « ∀x ∈ R+ , ∃y ∈ R+ , x 2 6= y ».
¡ ¢ ¡ ¢
– On a toujours l’implication suivante : ∃x ∈ A, ∀y ∈ B, P(x, y) =⇒ ∀y ∈ B, ∃x ∈ A, P(x, y) .
– La négation de « ∀x ∈ A, ∃y ∈ B, P(x, y) » est « ∃x ∈ A, ∀y ∈ B, non(P(x, y)) ».
FExercice 1.3
1/ Traduire dans le langage mathématique : la suite (u n ) est majorée. Écrire la négation. Qu’en est-il de la suite
MO
Solution 1.3
1/ ∃M ∈ R, ∀n ∈ N, u n 6 M. La négation est ∀M ∈ R, ∃n ∈ N, u n > M. La suite (n 2 ) n’est pas majorée, en effet : soit
M ∈ R, si n ∈ N avec n > M, alors (n + 1)2 > n > M.
2/ Traduction :
a) L’ensemble R a un maximum, cette proposition est fausse, sa négation s’écrit ∀y ∈ R, ∃x ∈ R, x > y.
b) L’ensemble N a un minimum, cette proposition est vraie.
Intersection d’ensembles
Si x désigne un élément de E, démontrer que x ∈ A ∩ B, c’est démontrer la proposition « (x ∈ A) et (x ∈ B) ».
On peut donc écrire : A ∩ B = {x ∈ E | x ∈ A et x ∈ B}.
NE
Réunion d’ensembles
Si x désigne un élément de E, démontrer que x ∈ A∪B, c’est démontrer la proposition « (x ∈ A) ou (x ∈ B) ».
On peut donc écrire : A ∪ B = {x ∈ E | x ∈ A ou x ∈ B}.
Complémentaire
Si x désigne un élément de E, démontrer que x ∈ CE (A), c’est démontrer la proposition « (x ∉ A). On peut
donc écrire : CE (A) = {x ∈ E | x ∉ A}.
Différence d’ensembles
Si x désigne un élément de E, démontrer que x ∈ A \ B, c’est démontrer la proposition « (x ∈ A) et (x ∉ B) ».
On peut donc écrire : A \ B = {x ∈ E | x ∈ A et x ∉ B}, il en découle que A \ B = A ∩ CE (B).
AIG
Inclusion d’ensembles
Démontrer que A est inclus dans B, c’est démontrer que les éléments de A sont également des éléments
de B, c’est à dire, pour tout élément x de E, on a : x ∈ A =⇒ x ∈ B. Pour établir ceci, on prend un élément x
quelconque de E, et on démontre la proposition x ∈ A =⇒ x ∈ B.
Égalité d’ensembles
Démontrer que A est égal à B, c’est démontrer la double inclusion : A ⊂ B et B ⊂ A, c’est à dire, pour tout
élément x de E, on a : (x ∈ A =⇒ x ∈ B) et (x ∈ B =⇒ x ∈ A), ce qui équivaut à : x ∈ A ⇐⇒ x ∈ B. Pour établir
ceci, on prend un élément x quelconque de E, et on démontre la proposition x ∈ A ⇐⇒ x ∈ B.
À retenir
Démontrer que A ⊂ B, c’est démontrer : ∀x ∈ E, x ∈ A =⇒ x ∈ B.
Démontrer que A = B, c’est démontrer : ∀x ∈ E, x ∈ A ⇐⇒ x ∈ B.
NT
ZExemples :
– Soient A, B et C trois parties d’un ensemble E, démontrer la distributivité de la réunion sur l’intersection
c’est démontrer :
¡ ¢ ¡ ¢
∀x ∈ E, x ∈ A ∪ (B ∩ C) ⇐⇒ x ∈ [A ∪ B] ∩ [A ∪ C]
On considère un x quelconque dans E, on peut alors montrer l’équivalence avec une table de vérité (à
compléter en exercice) :
x∈A x ∈B x ∈C x ∈ A ∪ (B ∩ C) x ∈ [A ∪ B] ∩ [A ∪ C]
V V V
V V F
MO
V F V
V F F
F V V
F V F
F F V
F F F
x ∈ CE (A ∪ B) ⇐⇒ non([x ∈ A] ou [x ∈ B])
⇐⇒ [x ∉ A] et [x ∉ B]
⇐⇒ x ∈ CE (A) ∩ CE (B)
NE
l’ensemble des solutions réelles). La définition est la même pour une inéquation dans R.
1
FExercice 1.5 Résoudre dans R l’inéquation x < −1.
Solution 1.5 On écrit :
1 1
< −1 ⇐⇒ + 1 < 0
x x
x +1
⇐⇒ <0
x
⇐⇒ (x + 1)x < 0 et x 6= 0
⇐⇒ x ∈] − 1; 0[
AIG
III LE RAISONNEMENT
• Analyse : supposons qu’il existe une fonction g qui s’annule en 0 et en 1, ainsi que deux réels a et b tels
que ∀x ∈ R, f (x) = g (x) + ax + b. En évaluant en 0 on doit avoir f (0) = b, en évaluant en 1 on doit avoir
f (1) = a + b, d’où a = f (1) − b = f (1) − f (0). Maintenant que a et b sont connus, on en déduit que g est la
fonction x 7→ f (x) − ax − b
• Synthèse : posons b = f (0), a = f (1) − f (0) et g : x 7→ f (x) − ax − b. Il est clair que f (x) = g (x) + ax + b,
d’autre part g (0) = f (0) − b = 0 et g (1) = f (1) − a − b = f (1) − f (1) + f (0) − f (0) = 0. Donc a, b et g sont bien
solution du problème et celle-ci est unique.
NE
établir que nécessairement la proposition Q est vraie elle aussi.
• Par l’absurde : on suppose le contraire de P =⇒ Q, c’est à dire on suppose « P et non(Q) » (i.e. P
est vraie et Q est fausse. On montre alors que ceci conduit à une contradiction, ce qui entraîne que
l’hypothèse faite est fausse et par conséquent P =⇒ Q.
• Par contraposition : on cherche à établir non(Q) =⇒ non(P).
Remarque 1.4 – Pour démontrer « P ou Q » : cette proposition est équivalente à « (non P) =⇒ Q ». Par consé-
quent, démontrer « P ou Q » revient à démontrer « (non P) =⇒ Q ».
4) L’équivalence
AIG
Par définition, l’équivalence « P ⇐⇒ Q » est vraie lorsque P et Q ont même valeur de vérité. Nous savons
qu’elle équivaut à « (P =⇒ Q) et (Q =⇒ P) », donc montrer l’équivalence c’est montrer une implication et
réciproque.
5) La récurrence
NT
À retenir : rappel du principe de récurrence
Soit P(n) un prédicat portant sur une variable n ∈ N.
Si on a P(0) (initialisation) et si ∀ ∈ N, P(n) =⇒ P(n + 1) (hérédité), alors nécessairement ∀n ∈ N, P(n).
Remarque 1.5 :
– L’initialisation est juste une vérification, mais elle est indispensable.
Par exemple, soit le prédicat P(n) :« n = n + 1 », celui-ci vérifie bien l’hérédité (n = n + 1 =⇒ n + 1 = n + 2),
mais pour tout n, P(n) est fausse.
– Démontrer l’hérédité c’est démontrer une implication. En général on le fait par la méthode directe, on
fait donc l’hypothèse P(n), c’est ce que l’on appelle l’hypothèse de récurrence, et on essaie d’en déduire
P(n + 1).
MO
5. Cette méthode n’est pas toujours applicable, mais c’est celle que l’on utilise dans la mesure du possible pour résoudre une
équation ou une inéquation.
Preuve : Pour le premier point, on applique le principe de récurrence au prédicat Q(n) = P(n + a) avec n ∈ N. Pour le
deuxième, on applique le principe de récurrence au prédicat Q(n) = P(a − n) avec n ∈ N.
FExercice 1.6
NE
Pn n(n+1)
1/ Montrer que ∀n ∈ N∗ , k=1
k= 2 .
(2n+1)n(n+1)
∈ N∗ , nk=1 k 2
P
2/ Montrer que ∀n = 6 .
³ ´2
∈ N∗ , nk=1 k 3 = n(n+1)
P
3/ Montrer que ∀n 2 .
AIG
À retenir
La récurrence forte est utile lorsque le seul fait que P(n) soit vraie ne suffit pas à en déduire P(n + 1).
L’hypothèse de récurrence peut alors s’écrire : « supposons la propriété vraie jusqu’au rang n ».
FExercice 1.7 Soit (u n ) la suite définie par u 0 = u 1 = 1 et ∀ n ∈ N, u n+2 = u n+1 + u n (suite de Fibonacci), montrer par
récurrence que pour tout n :
un =
p à p !n
5+ 5 1+ 5
10 2
+
p Ã
10 2
p !n
5− 5 1− 5
NT
MO
Nombres complexes
AIG
Sommaire
I Écriture algébrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1) L’ensemble des complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2) Partie réelle, partie imaginaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3) Conjugué d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
II Module d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2) Équation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
III Forme trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1) Le groupe unité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2) Exponentielle d’un imaginaire pur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3) Argument d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4) Racines nes d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
IV Exponentielle complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
NT
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2) Formules d’Euler et de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
V Représentation géométrique des complexes, applications . . . . . . . . . . . . . . . . . . . . 19
1) Affixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2) Distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3) Angles orientés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4) Similitudes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
On suppose connu l’ensemble R des réels, les propriétés de ses deux opérations que sont l’addition et la
multiplication, et la notion de valeur absolue d’un réel.
I ÉCRITURE ALGÉBRIQUE
MO
NE
1/ Montrer que si z ∈ C, alors z × 0 = 0 × z = 0.
2/ Soient z, z 0 ∈ C tels que zz 0 = 0, montrer que z = 0 ou z 0 = 0.
Définition 2.1
Soit z ∈ C, on sait qu’il existe un réel a unique et un réel b unique tel que z = a + i b. Le réel a est
appelé partie réelle de z, notée a = Re(z), et b la partie imaginaire de z, notée b = Im(z). L’écriture
z = a + i b est appelée forme algébrique de z. L’ensemble des complexes dont la partie réelle est nulle,
est appelée ensemble des imaginaires purs et noté i R = {z ∈ C | Re(z) = 0} = i y | y ∈ R .
© ª
AIG
À retenir : quelques propriétés
0
a) z = z ⇐⇒
(
Re(z) = Re(z 0 )
Im(z) = Im(z 0 )
b) z ∈ R ⇐⇒ Im(z) = 0.
c) z ∈ i R ⇐⇒ Re(z) = 0.
.
Définition 2.2
Soit z = x + i y un complexe sous forme algébrique, on appelle conjugué de z, le complexe noté z et
défini par z = x − i y. On a donc Re(z) = Re(z) et Im(z) = −Im(z).
À retenir
On a : z + z = 2Re(z); z − z = 2i Im(z); z ∈ R ⇐⇒ z = z; z est un imaginaire pur ssi z = −z.
1
FExercice 2.3 Montrer que si z est non nul, alors z = 1z .
1) Définition
Soit z = x + i y un complexe sous forme algébrique, on a z × z = x 2 + y 2 et cette quantité est un réel positif.
Définition 2.3
p
Soit z ∈ C, on appelle module de z, le réel positif noté |z| et défini par : |z| = zz.
NE
À retenir : propriétés du module
a) |z|2 = zz.
b) |z| = 0 ⇐⇒ z = 0.
c) |Re(z)| 6 |z| et |Im(z)| 6 |z|.
d) Si z est réel, alors son module coïncide avec sa valeur absolue.
e) |zz 0 | = |z||z 0 |, en particulier, ∀n ∈ N, |z n | = |z|n (ceci reste valable pour n ∈ Z si z 6= 0).
f ) |z| = |z| et | − z| = |z|.
AIG
z
g) Pour mettre le complexe z 0 sous forme algébrique, il suffit de multiplier en haut et en bas par
z zz 0 Re(zz 0 ) Im(zz 0 )
z0 : z0 = |z 0 |2
= |z 0 |2
+i |z 0 |2
.
|z + z 0 |2 = (z + z 0 )(z + z 0 )
= |z|2 + |z 0 |2 + 2Re(zz 0 )
6 |z|2 + |z 0 |2 + 2|Re(zz 0 )|
NT
6 |z|2 + |z 0 |2 + 2|zz 0 | = |z|2 + |z 0 |2 + 2|z||z 0 |
¢2
6 |z| + |z 0 |
¡
d’où le résultat puis que les deux expressions sont des réels positifs.
Pour l’inégalité de gauche, on écrit |z| = |z + z 0 − z 0 | 6 |z + z 0 | + |z 0 | d’où |z| − |z 0 | 6 |z + z 0 |, en inversant les rôles on a
|z | − |z| 6 |z + z 0 |, ce qui entraîne la première inégalité.
0
Remarque 2.1 – En remplaçant z 0 par −z 0 , on a ||z| − |z 0 || 6 |z − z 0 | 6 |z| + |z 0 |.
Théorème 2.4
Soit a ∈ C, l’équation z 2 = a admet dans C deux solutions opposées (toutes deux nulles lorsque a = 0).
Preuve : Soit z 0 une solution, alors l’équation z 2 = a équivaut à z 2 = z 02 , c’est à dire à (z − z 0 )(z + z 0 ) = 0, d’où z = ±z 0 ,
il reste à montrer l’existence d’une solution z 0 . Posons a = u + i v et z = x + i y, l’équation z 2 = a est équivalente à
x 2 − y 2 = u et 2x y = v. On doit avoir également |z|2 = |a|, c’est à dire x 2 + y 2 = |a|, par conséquent on a : x 2 = u+|a| , y2 =
NE
q q 2
|a|−u
2 et 2x y = v. Une solution z 0 = x 0 + i y 0 s’obtient en prenant : x 0 = |a|+u 2 et y 0 = ε |a|−u
2 avec ε = 1 si v > 0 et
ε = −1 si v < 0, car on a 2x 0 y 0 = ε|v| = v.
ZExemples :
p
– Si a est un réel strictement positif, alors v = 0 et u > 0 d’où |a| = u et donc x 0 = a et y 0 = 0, les deux
p
solutions sont ± a, elles sont réelles.
p
– Si a est un réel strictement négatif, alors v = 0 et u < 0 d’où |a| = −u et donc x 0 = 0 et y 0 = −a, les
p
deux solutions sont ±i −a, ce sont des imaginaires purs.
Théorème 2.5
Soient a, b, c ∈ C avec a 6= 0, l’équation az 2 + bz + c = 0 admet deux solutions complexes qui sont
z 1 = −b+δ −b−δ 2 2
2a et z 2 = 2a avec δ ∈ C tel que δ = ∆ = b − 4ac (discriminant). De plus, lorsque les
AIG
coefficients a, b, c sont réels et que le discriminant b 2 −4ac est strictement négatif, ces deux solutions
sont complexes non réelles et conjuguées.
b 2 b −4ac 2 b
Preuve : L’équation est équivalente à : (z + 2a ) − 4a 2 = 0. Posons Z = z + 2a et ∆ = b 2 −4ac, on sait que ∆ admet deux
δ2 δ
racines carrées dans C, soit δ l’une d’elles (δ2 = ∆), l’équation est équivalente à : Z2 = 4a 2
, on en déduit que Z = ± 2a et
−b±δ
donc z = 2a . Lorsque les trois coefficients sont réels, le discriminant ∆ estplui aussi un réel, s’il est strictement négatif,
p
alors on peut prendre δ = i −∆ et les solutions sont dans ce cas z = −b±i2a −∆ , on voit que celles - ci sont complexes
non réelles et conjuguées.
À retenir
La somme et le produit des deux solutions z 1 et z 2 de l’équation az 2 + bz + c = 0, sont donnés par les
relations : z 1 + z 2 = S = − ba et z 1 z 2 = P = ac . De plus on a la factorisation :
NT
∀z ∈ C, az 2 + bz + c = a(z − z 1 )(z − z 2 ).
1) Le groupe unité
Définition 2.4
On note U l’ensemble des complexes de module 1 : U = {z ∈ C / |z| = 1}, c’est une partie de C∗ .
Théorème 2.6
Tout complexe de module 1 peut se mettre sous la forme cos(θ) + i sin(θ) avec θ un réel, plus précisé-
ment :
U = {cos(θ) + i sin(θ) / θ ∈ R}.
Preuve : Soit z = x + i y un complexe de module 1, on a x 2 + y 2 = 1, donc il existe un réel θ (unique à 2π près) tel que
x = cos(θ) et y = sin(θ), c’est à dire z = cos(θ) + i sin(θ). La réciproque est immédiate.
NE
2) Exponentielle d’un imaginaire pur
Pour tout réel x, on pose e i x = cos(x) + i sin(x). On a les propriétés suivantes :
– ∀x ∈ R, Re(e i x ) = cos(x) et Im(e i x ) = sin(x).
– ∀x ∈ R, e −i x = cos(−x)
p + i sin(−x) = cos(x) − i sin(x) = e i x .
– ∀x ∈ R, |e i x | = cos(x)2 + sin(x)2 = 1, donc e i x ∈ U.
– ∀z ∈ U, ∃θ ∈ R, e i θ = z.
1
→
−
v
M(x + i y = e i θ )
y = sin(θ)
AIG
θ
0
0 →
−
u x = cos(θ) 1
−−→
θ = (→
−
u , OM) (mod 2π)
á
(
ix iy cos(x) = cos(y)
– Soit x, y ∈ R, e =e ⇐⇒ ⇐⇒ x = y (2π).
NT
sin(x) = sin(y)
Théorème 2.7
∀x, y ∈ R, e i x e i y = e i (x+y) .
Preuve : e i x e i y = [cos(x) + i sin(x)][cos(y) + i sin(y)] = [cos(x) cos(y) − sin(x) sin(y)] + i [cos(x) sin(y) + sin(x) cos(y)] =
cos(x + y) + i sin(x + y) = e i (x+y) d’après les formule d’addition du sinus et du cosinus.
Ce théorème permet de retrouver les formules trigonométriques.
À retenir
– cos(x + y) = Re(e i (x+y) ) = Re(e i x e i y ) = cos(x) cos(y) − sin(x) sin(y).
MO
x+y x−y
En posant a = et b = on obtient :
2 2
x+y x−y
– cos(x) + cos(y) = cos(a + b) + cos(a − b) = 2 cos(a) cos(b) = 2 cos( 2 ) cos( 2 ).
x+y x−y
– cos(x) − cos(y) = cos(a + b) − cos(a − b) = −2 sin(a) sin(b) = −2 sin( 2 ) sin( 2 ).
x+y x−y
– sin(x) + sin(y) = sin(a + b) + sin(a − b) = 2 sin(a) cos(b) = 2 sin( 2 ) cos( 2 )...etc
Définition 2.5
Soit z un complexe non nul, on appelle argument de z tout réel θ tel que z = |z|e i θ , cette égalité
NE
est appelée forme trigonométrique de z. L’ensemble des arguments de z est noté arg(z), on a donc
arg(z)={θ ∈ R/ z = |z|e i θ }, et si θ0 est un argument de z, alors arg(z)={θ0 + 2kπ/ k ∈ Z }.
A(z)
2
1
z
B( |z| )
θ
0
AIG
−1 0 1 2
−1
Définition 2.6
Soit z ∈ C∗ , z possède un unique argument dans l’intervalle ] − π; π], par définition cet argument est
appelé argument principal de z et noté Arg(z).
ZExemples :
– Arg(i ) = π2 , Arg( ) = 2π
3 .
– si x ∈ R∗+ alors Arg(x) = 0 et si x ∈ R∗− alors Arg(x) = π.
NT
Attention !
Si z = r ei θ avec r et θ réels, alors c’est la forme trigonométrique de z lorsque r > 0. Mais lorsque r < 0, la forme
trigonométrique de z est z = −r e i (θ+π) .
Arg(z) = 2 (π).
|z| = |z 0 |
½
0
– z = z ⇐⇒ .
θ = θ0 (2π)
– z ∈ R∗ ⇐⇒ θ = 0 (π).
– z = |z|e −i θ donc Arg(z) = −θ (2π).
– −z = |z|e i (θ+π) donc Arg(−z) = θ + π (2π).
0
– zz 0 = |zz 0 |e i (θ+θ ) donc Arg(zz 0 ) = θ + θ0 (2π).
z |z| i (θ−θ0 )
– z0 = |z 0 | e donc Arg( zz0 ) = θ − θ0 (2π).
NE
À retenir
Soient a,b deux réels non tous deux nuls et soit x ∈ R, en posantpz = a + i b = |z|e i θ on obtient :
a cos(x) + b sin(x) = Re(ze i x ) = |z| cos(x − θ) = a 2 + b 2 cos(x − θ).
Définition 2.7
Soit a, z deux complexes et n ∈ N, z est une racine ne de a lorsque z n = a.
AIG
Résolution de l’équation z n = a
Théorème 2.9
Soit n un entier supérieur ou égal à 2, et a un complexe non nul. L’ensemble des racines nes de a (que
l’on note Rn (a)) est un ensemble fini de cardinal n, et pour tout argument θ de a on a :
Rn (a) =
np
p
n θ+2kπ
θ+2kπ
o
|a|e i n / 0 6 k 6 n − 1 .
Preuve : Posons pour k ∈ J0; n − 1K , z k = n |a|e i n , il est clair que z k est une racine ne de a. Si z k = z k 0 alors θ + 2kπ =
θ + 2k 0 π (2nπ), d’où k − k 0 ∈ nZ, or k et k 0 sont dans l’intervalle J0; n − 1K ce qui entraîne k = k 0 , ceci prouve que a
possède au moins n racines nes : z 0 , · · · , z n−1 .
p
Soit z une racine ne de a, l’égalité z n = a entraîne que |z|n = |a| et nArg(z) = θ (2π), d’où |z| = n |a| et Arg(z) =
NT
θ+2kπ
n , k ∈ Z. Effectuons la division euclidienne de k par n, il existe deux entiers q et r tels que k = nq + r avec
0 6 r 6 n − 1, on a donc Arg(z) = θ+2r n
π
(2π) et par conséquent z = z r , ceci prouve que les seules racines nes de a sont
z 0 , · · · , z n−1 .
Cas particuliers des racines nes de l’unité :
Définition 2.8
Soit n un entier supérieur ou égal à deux, on note Un l’ensemble des racines nes de l’unité, on a donc :
ª n o
Un = z ∈ U / z n = 1 = e 2i kπ/n / 0 6 k 6 n − 1
©
M2 1
M1
M3
M0
Mk est le point d’affixe e 2i kπ/n (n = 7).
−1 1
M4
M6
M5 −1
À retenir
Soit a un complexe non nul et soit z 0 une racine ne de a. L’équation z n = a équivaut à z n = z 0n , ou
NE
³ ´n
encore zz0 = 1. On est ainsi ramené aux racines nes de l’unité, on en déduit que z = z 0 e i 2kπ/n avec
0 6 k 6 n − 1.
IV EXPONENTIELLE COMPLEXE
1) Définition
Définition 2.9
Soit z = x + i y un nombre complexe, on appelle exponentielle de z le complexe noté exp(z) et défini
par : exp(z) = e x [cos(y) + i sin(y)], c’est à dire exp(z) = e x e i y .
AIG
Remarque 2.2 :
– Si z est réel (ie y = 0), alors l’exponentielle de z correspond à l’exponentielle réelle de z. De même, si z est
imaginaire pur (x = 0), alors exp(z) = exp(i y) = cos(y) + i sin(y).
– exp(0) = 1.
– Re(exp(z)) = e Re(z) cos(Im(z)) et Im(exp(z)) = e Re(z) sin(Im(z)).
– | exp(z)| = e Re(z) et Arg(exp(z)) = Im(z) (2π).
– exp(z) = exp(z).
Preuve : Il est clair d’après la définition que exp(z) ne peut pas être nul, donc exp(z) ∈ C∗ . Posons z = x + i y, exp(z +
2i π) = e x [cos(y + 2π) + i sin(y + 2π)] = exp(z). Soit a un complexe non nul, l’équation exp(z) = a équivaut à |a| = e x et
Arg(a) = y (mod 2π) (résolution trigonométrique), donc les complexes z = ln(|a|)+i (y +2kπ) (où k parcourt Z) sont les
antécédents de a, en particulier les solutions de l’équation exp(z) = 1 sont les complexes z = 2i kπ, k ∈ Z. Soit z 0 = x 0 +i y 0
0 0
un autre complexe, exp(z +z 0 ) = e x+x [cos(y + y 0 )+i sin(y + y 0 )], et exp(z) exp(z 0 ) = e x+x [cos(y) cos(y 0 )−sin(y) sin(y 0 )] =
x+x 0 0 0
e [cos(y + y ) + i sin(y + y )]. On peut déduire de cette propriété le calcul suivant :
exp(z)
exp(z) = exp(z 0 ) ⇐⇒ =1
exp(z 0 )
⇐⇒ exp(z) exp(−z 0 ) = 1
MO
⇐⇒ exp(z − z 0 ) = 1
⇐⇒ ∃k ∈ Z, z = z 0 + 2i kπ.
Remarque 2.3 – La propriété fondamentale de l’exponentielle complexe : exp(z + z 0 ) = exp(z) exp(z 0 ), est la
même que celle de l’exponentielle réelle. On convient alors de noter exp(z) = e z . La propriété fondamentale
devient :
0 0
e z+z = e z × e z
1
Il découle également de cette relation que : e −z = .
ez
FExercice 2.5 Résoudre e z = 1 + i .
p
Solution 2.5 On écrit z = x + i y avec x, y réels, et 1 + i = 2e i π/4 . Résolution trigonométrique : l’équation équivaut
p
alors à e x = 2 et y = π4 + 2kπ avec k ∈ Z, l’ensemble des solutions est donc 21 ln(2) + i ( π4 + 2kπ) / k ∈ Z .
© ª
NE
[cos(x) + i sin(x)]n . On en déduit que :
AIG
ZExemples :
(e i x +e −i x )3 i 3x i 2x −i x i x −i 2x
+e −i 3x cos(3x)+3 cos(x)
– cos(x)3 = 8 = e +3e e +3e 8
e
= 4 .
(e i x −e −i x )3 i 3x i 2x −i x
+3e i x e −i 2x −e −i 3x 3 sin(x)−sin(3x)
– sin(x)3 = −8i = e −3e e −8i = 4 .
Le plan complexe est un plan P muni d’un repère orthonormé direct R = (O, →
−
u ,→
−
v ).
1) Affixe
Chaque point M du plan complexe est repéré par ses coordonnées : une abscisse x et une ordonnée y,
c’est à dire par le couple de réels (x, y). Autant dire que M est repéré par le complexe z = x +i y. Par définition,
ce complexe est l’affixe du point M.
NT
M(x, y)
y
→
−
v
O →
−
u x
Réciproquement, tout complexe z est l’affixe d’un point M du plan que l’on appelle image de z. Les axes
(O, →
−
u ) et (O, →
−
v ) sont appelés respectivement axes des réels et axe des imaginaires.
Par exemple, l’image de z est le symétrique de l’image de z par la réflexion d’axe (O, → −
u ).
MO
2) Distances
Le module d’un complexe z représente dans le plan complexe la distance de l’origine O au point M
NE
−−→
d’affixe z, c’est à dire |z| = OM = kOM k.
Si −
→ est un vecteur d’affixe z, alors la norme de −
w w→ est k−
→k = |z|.
w
−−−→
Soit M d’affixe z et M0 d’affixe z 0 , la distance de M à M0 est MM0 = kMM0 k = |z 0 − z|.
Définition 2.10
Soit a ∈ C et R > 0, on définit dans le plan complexe :
– le disque fermé de centre a et de rayon R : {M ∈ P / |z − a| 6 R}.
– le disque ouvert de centre a et de rayon R : {M ∈ P / |z − a| < R}.
– le cercle de centre a et de rayon R : {M ∈ P / |z − a| = R}.
ZExemples :
AIG
– La représentation géométrique du groupe unité U = {z ∈ C / |z| = 1} est le cercle de centre O et de rayon
1 : le cercle trigonométrique.
– Les points d’affixe les racines nes de l’unité (n > 2) sont les sommets d’un polygone régulier inscrit
dans le cercle unité. La longueur du coté est 2 sin( nπ ), et la longueur du centre au milieu d’un coté
(l’apothème) est cos( nπ ).
3) Angles orientés
Soit z un complexe non nul et M le point du plan d’affixe z, l’argument principal de z est une mesure de
−−→ −−→
l’angle orienté (→
−
u , OM ), ce que l’on écrit (→
−
u , OM ) = Arg(z) (2π).
x + i y = r e i θ avec
p
r = x 2 + y 2 = OM
NT
M(x, y)
y
M
→
− r=O
v θ
O →
−
u x
Soient −→ et −
w
→
w 0 deux vecteurs non nuls d’affixes respectifs z et z 0 . Désignons par M et M0 les points
→ et −
d’affixes respectifs z et z 0 , l’angle orienté entre les deux vecteurs −
w
→
w 0 est :
MO
→, −
(−
w
→ −−→ −−−→
w 0 ) = (OM , OM0 )
−−→ − −−−→
= (OM , → u ) + (→
−
u , OM0 )
−−→ −−−→
= −(→−
u , OM ) + (→−u , OM0 )
= −Arg(z) + Arg(z 0 ) (2π)
z0
= Arg( ) (2π)
z
−−→
Conséquence : Soient A, B et C trois points distincts d’affixes respectifs a, b et c. L’affixe du vecteur AB est
−−→ −−→ −−→
b − a et celui du vecteur AC est c − a, par conséquent l’angle (AB , AC ) est donné par :
−−→ −−→ c −a
(AB , AC ) = Arg( ) (2π).
b−a
AC
¯ c−a ¯
Et on a le rapport des distances AB = ¯ b−a ¯.
−−→ −−→
Les trois points A, B et C sont alignés si et seulement si (AB , AC ) = 0 (mod π) ce qui équivaut donc à
c−a
b−a ∈ R.
−−→ −−→ −−→ −−→
Les vecteurs AB et AC sont orthogonaux si et seulement si (AB , AC ) = π2 (mod π) ce qui équivaut donc
NE
c−a
à b−a ∈ i R.
4) Similitudes directes
Soient a, b ∈ C avec a 6= 0, on note S a,b : P → P l’application qui au point d’affixe z faire correspondre le
point d’affixe z 0 = az +b, c’est la similitude directe de paramètres a et b. On vérifie en appliquant la définition,
les propriétés suivantes :
– S a,b est une bijection et sa réciproque est aussi une similitude directe, plus précisément S −1 a,b
= S 1 , −b .
a a
– La composée de deux similitudes directes est une similitude directe, plus précisément, S c,d ◦ S a,b =
S ac,cb+d avec c 6= 0.
– Soient A(z A ), B(z B ), C(z C ) et D(z D ) quatre points avec A 6= B et C 6= D, alors il existe une unique
AIG
similitude
( directe S a,b qui transforme A en C et B en D, celle-ci se détermine en résolvant le système
az A + b = z C
pour déterminer a et b.
az B + b = z D
– Lorsque a = 1, la similitude S 1,b est la translation de vecteur → −
u d’affixe b.
Étude lorsque a 6= 1
b
– Il existe un unique point fixe Ω(z 0 ) avec z 0 = 1−a , on a alors pour tout z : az + b = a(z − z0) + z 0 . Ce
point est appelé centre de la similitude.
0
– Soit M(z) un point différent du centre Ω, et soit M0 (z 0 ) son image par S a,b , alors : zz−z−z 0
0
= a, on en
¯ 0 ¯ −−→ −−−→
déduit que : ¯ zz−z
¯ −z0 ¯
¯ = |a|, c’est à dire ΩM0 = |a|ΩM, et (ΩM , ΩM0 ) = Arg(a) (mod 2π), ce qui permet
0
une construction géométrique de M0 partant de M :
M0
NT
ΩM0 = |a|ΩM
Ω
θ = Arg(a)
−−−→ −−→
– Cas particulier où Arg(a) = 0 : on a alors z 0 = |a|(z − z 0 ) + z 0 d’où ΩM0 = |a|ΩM , on dit que la simili-
tude est l’homothétie de centre Ω et de rapport |a|, on la note h (Ω,|a|) .
MO
−−−→ −−→
– Cas particulier où |a| = 1 : on a alors z 0 = e i θ (z − z 0 ) + z 0 d’où ΩM0 = ΩM et ΩM0 , ΩM = Arg(a), on dit
que la similitude est la rotation de centre Ω et d’angle Arg(a), on la note r (Ω,Arg(a)) .
– Dans le cas général, on vérifie par le calcul que S a,b et la composée commutative :
On dit que S a,b est la similitude de centre Ω, de rapport |a| et d’angle Arg(a) . On remarquera que la
1
bijection réciproque est la similitude de centre Ω, de rapport |a| et d’angle −Arg(a).
Calculs algébriques
AIG
Sommaire
I Sommes et produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2) Changement d’indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4) Sommes doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
II Binôme de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1) Factorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2) Coefficients binomiaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3) Formule du binôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
III Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2) Interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3) Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
NT
I SOMMES ET PRODUITS
On se place dans C. Les sommes et les produits dont on va parler ne contiennent qu’un nombre fini de
termes.
1) Définition
Q
A est noté a. Par convention, lorsque A est vide, la somme est nulle et le produit vaut 1.
a∈A
Remarque 3.1 – Ces opérations étant commutatives dans C, l’ordre n’a pas d’importance. Comme elles sont
également associatives, il est inutile de préciser un parenthèsage pour la somme ou le produit.
ZExemple : La somme et le produit des racines n es de l’unité se notent ω et ω.
P Q
ω∈Un ω∈Un
ZExemple : La famille des racines n es de l’unité est (e 2i kπ/n )k∈J0;n−1K , on peut donc écrire la somme et le
e 2i kπ/n et e 2i kπ/n .
P Q
produit ainsi :
k∈J0;n−1K k∈J0;n−1K
NE
Définition 3.3 (lorsque I est un intervalle d’entiers)
Soit (a k )k∈I une famille de complexes indexée par un intervalle d’entiers Jn 0 ; n 1 K. La somme des
n
P1 Qn1
éléments de la famille est notée a k et le produit des éléments de la famille est noté a k . Par
k=n 0 k=n 0
convention, lorsque n 0 > n 1 , la somme est nulle et le produit vaut 1 (car dans ce cas l’intervalle
Jn 0 ; n 1 K est vide).
ZExemple : La famille des racines n es de l’unité est (e 2i kπ/n )k∈J0;n−1K , on peut donc écrire la somme et le
n−1 n−1
e 2i kπ/n et e 2i kπ/n .
P Q
produit ainsi :
AIG
k=0 k=0
Attention !
n
P1
Dans la notation a k , il est implicite que l’indice k augmente de 1 lorsqu’on passe d’un terme au suivant
k=n 0
15
P
(idem pour le produit). Par exemple, la somme des entiers impairs de 1 à 15 ne s’écrit pas k (qui correspond à la
k=1
7
P
somme de tous les entiers de 1 à 15), mais 2k + 1.
k=0
Remarque 3.2 :
– Le terme a k est appelé terme général de la somme (ou produit), la valeur n 0 est appelée valeur initiale de
l’indice et n 1 la valeur finale.
– Dans les formules donnant la somme ou le produit, l’indice est une variable dite muette, on peut lui
NT
donner le nom que l’on veut, le résultat ne dépend pas de l’indice.
Cas particuliers
n
P1 n1
– Lorsque le terme général est une constante α, alors a k = αn1 −n0 +1 si
Q
a k = (n 1 − n 0 + 1)α et
k=n 0 k=n 0
n0 6 n1 .
– Sommes et produits télescopiques, soit (a k )k∈Jp;q+1K une famille de complexes, alors :
q q
P Q a k+1 a q+1
(a k+1 − a k ) = a q+1 − a p et si aucun terme ne s’annule, alors ak = a p .
k=p k=p
– Somme de termes consécutifs d’une suite u géométrique de raison q ∈ C :
( u p −q×un
n si q 6= 1
MO
1−q
X
uk =
k=p n −p +1 sinon
p−q×d
On retiendra la formule S = 1−q où p désigne le premier terme de la somme et d le dernier.
– Somme de termes consécutifs d’une suite u arithmétique de raison r ∈ C :
n
X (n − p + 1)(u p + u n )
uk =
k=p 2
n(p+d )
On retiendra la formule S = 2 où p désigne le premier terme de la somme, d le dernier et n le
nombre de termes.
FExercice 3.1 Démontrer les deux formules ci-dessus.
2) Changement d’indice
Formulation générale
NE
Soit (a k )k∈I une famille finie de complexes indexée par I non vide, supposons qu’il existe une bijection
f : J → I (où J désigne un autre ensemble), par composition on a ainsi une autre famille, indexée par J, et qui
est (a f (k 0 ) )k 0 ∈J . La fonction f étant bijective les deux familles comportent exactement les mêmes termes à
l’ordre près, par conséquent la somme des termes des deux familles est la même, et le produit aussi :
X X Y Y
ak = a f (k 0 ) et ak = a f (k 0 )
k∈I k 0 ∈J k∈I k 0 ∈J
Attention !
Si f n’est pas bijective, il n’y a aucune raison que les deux familles aient la même somme et le même produit.
AIG
Cas particuliers
Lorsque l’ensemble des indices est un intervalle d’entiers, les changements qui reviennent le plus souvent
n
P1
dans les sommes a k (ou produits) sont (avec n 0 6 n 1 ) :
k=n 0
– des translations de l’indice : k = k 0 + p (ou k 0 = k − p), ce qui donne :
n1
X nX
1 −p
ak = a k 0 +p
k=n 0 k 0 =n 0 −p
3) Propriétés
Théorème 3.1
Soient α, a 1 , a 2 , . . . , a n , b 1 , . . . , b n , c 1 , . . . , c m des nombres complexes, p 6 q 6 n des entiers, on a :
- pour la somme :
q n n n n n n n
α × ak = α ×
P P P P P P P P
ak + ak = ak ; ak ; (a k + b k ) = ak + bk
k=p k=q+1 k=p k=p k=p k=p k=p k=p
- pour
à le produit
! Ã : ! Ã ! Ã !
q n n n n n n n
n−p+1
α × ak = α
Q Q Q Q Q Q Q Q
ak × ak = ak ; × ak ; (a k × b k ) = ak × bk
k=p k=q+1 k=p k=p k=p k=p k=p k=p
NE
4) Sommes doubles
Sur un rectangle
Soit (a k,l )(k,l )∈Jp;q K×Jn;m K une famille indexée par Jp; q K × Jn; m K où p 6 q et n 6 m sont des entiers. La
P P
somme de la famille est appelée somme double et notée a k,l = a k,l .
(k,l )∈Jp;q K×Jn;m K p 6k 6q
n 6l 6m
Disposons ces nombres dans un tableau en indexant les lignes de p et q, et les colonnes de n à m :
AIG
m
P
La somme des nombres figurant sur la ligne k est S k = a k,n + a k,n+1 + · · · + a k,m =
a k,l . Si maintenant
l =n
q q m
µ ¶
P P P
nous faisons le total des sommes sur chaque ligne, nous obtenons S p + · · · + S q = Sk = a k,l , or ce
k=p k=p l =n
total représente la somme des nombres de la famille (car l’addition est commutative et associative), d’où :
à !
X q
X m
X
a k,l = a k,l
p 6k 6q k=p l =n
n 6l 6m
q
P
De même, la somme des nombres figurant sur la colonne l est Cl = a p,l + a p+1,l + · · · + a q,l = a k,l . Si
k=p
Pm
maintenant nous faisons le total des sommes sur chaque colonne, nous obtenons Cn + · · · + Cm = Cl =
NT
à ! l =n
m
P q
P
a k,l , or ce total représente la somme des nombres de la famille (car l’addition est commutative et
l =n k=p
associative), d’où finalement :
à ! à !
X q
X m
X m
X q
X
a k,l = a k,l = a k,l
p 6k 6q k=p l =n l =n k=p
n 6l 6m
q q
¶ Ã q !µ
m m m
µ ¶ µ ¶
P P P P P P P
ak bl = ak bl = ak bl = ak bl
p 6k 6 q k=p l =n k=p l =n k=p l =n
n 6l 6m
Sur un triangle
Soit (a k,l )(k,l )∈A une famille indexée par A = {(k, l ) | 1 6 k 6 l 6 n} où n est un entier. La somme de la
P P
famille est notée a k,l = a k,l .
(k,l )∈A 1 6k 6l 6n
Disposons ces nombres dans un tableau en indexant les lignes de 1 à n :
n
P
La somme des nombres figurant sur la ligne k est S k = a k,k + a k,k+1 + · · · + a k,n =
a k,l . Si maintenant
l =k
n n n
µ ¶
NE
P P P
nous faisons le total des sommes sur chaque ligne, nous obtenons S 1 + · · · + S n = Sk = a k,l , or ce
k=1 k=1 l =k
total représente la somme des nombres de la famille (car l’addition est commutative et associative), d’où :
à !
X n
X n
X
a k,l = a k,l
16k 6l 6n k=1 l =k
l
P
De même, la somme des nombres figurant sur la colonne l est Cl = a 1,l + a 2,l + · · · + a l ,l = a k,l . Si
k=1
Pn
maintenant nous faisons le total des sommes sur chaque colonne, nous obtenons C1 + · · · + Cn = Cl =
l =1
n l
µ ¶
P P
a k,l , or ce total représente la somme des nombres de la famille (car l’addition est commutative et
l =1 k=1
AIG
associative), d’où finalement :
à ! à !
X n
X n
X n
X l
X
a k,l = a k,l = a k,l
16k 6l 6n k=1 l =k l =1 k=1
II BINÔME DE NEWTON
1) Factorielle
Définition 3.4
n
Soit n ∈ N∗ , on pose n! =
Q
k = 1 × 2 × · · · × n. Par convention, on pose 0! = 1.
k=1
NT
ZExemple : 1! = 1, 2! = 2, 3! = 6, 4! = 24, ...
À retenir
∀n ∈ N, (n + 1)! = (n + 1) × n!
n
FExercice 3.3 Montrer que ∀ n ∈ N∗ , (n + 1)! = 1 +
P
k(k!).
k=1
2) Coefficients binomiaux
MO
Définition 3.5
¡n ¢ n!
Soient n, p deux entiers positifs tels que p 6 n, on pose p = p!(n−p)! (lire p parmi n).
¡n ¢ ¡n ¢ ¡n ¢ n(n−1)
ZExemple : 0 = 1; 1 =n; 2 = 2 .
En simplifiant dans la formule n! avec (n − p)!, il reste :
¡x ¢ x(x−1)···(x−p+1)
Cette formule pratique permet d’étendre la définition à tout réel x (et p ∈ N) en posant : p = p!
¡x ¢
et 0 = 1.
Attention !
La fonction factorielle telle que nous l’avons définie, ne s’applique qu’à des entiers positifs.
NE
Théorème 3.2 (propriétés)
Soient 0 6 p 6 n :
n
¡ ¢ ¡ n ¢
- p = n−p (symétrie).
- n+1
¡ ¢ n+1 ¡n ¢
= .
¡np+1 ¢ p¡n+1¢
¢ ¡ np+1
- p + p+1 = p+1 (relation de Pascal).
Preuve :¡La
¢ première formule découle directement
¡n+1¢ de la définition.
n+1 n n+1 n! (n+1)!
p+1 p = p+1 (n−p)!p! = (n+1−(p+1))!(p+1)! = p+1 .
¡n ¢ ¡ n ¢ n!(p+1)+n!(n−p)
n! n! (n+1)!
= n+1
¡ ¢
p + p+1 = (n−p)!p! + (n−p−1)!(p+1)! = (n−p)(p+1)! = (n−p)!(p+1)! p+1 .
AIG
Triangle de Pascal
La relation de Pascal permet de calculer les coefficients binomiaux de proche en proche dans un tableau :
n\p 0 1 2 3 4 5 6 7 8
0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6+ 4 1
=
5 1 5 10 10 5 1
6 1 6 15 20 15 6 1
7 1 7 21 35 35 21 7 1
8 1 8 28 56 70 56 28 8 1
NT
3) Formule du binôme
Théorème 3.3
n ¡ ¢ n ¡ ¢
n n
Soient a, b ∈ C et n ∈ N, alors : (a + b)n = a k b n−k = a n−k b k .
P P
k k
k=0 k=0
Preuve : Par récurrence sur n : au rang 0 la formule donne 1 ce qui correspond bien à (a + b)0 . Si la formule est
démontrée au rang n, alors :
k=0 k k=0 k
à ! à !
n+1 n n n
p n+1−p
a k b n+1−k (changement d’indice p = k + 1 dans la première somme)
X X
= a b +
p=1 p − 1 k=0 k
à ! à !
n+1 n n n
k n+1−k
a k b n+1−k
X X
= a b +
k=1 k − 1 k=0 k
"Ã ! Ã !#
n n n
n+1 n+1
a k b n+1−k (on regroupe les sommes sur J1; n K)
X
=a +b + +
k=1 k −1 k
à !
n n +1
n+1 n+1
a k b n+1−k (relation de Pascal)
X
=a +b +
k=1 k
à !
n+1
X n + 1 k n+1−k
= a b (formule au rang n + 1)
k=0 k
NE
ZExemples :
n ¡ ¢
n
= (1 + 1)n = 2n .
P
– k
k=0
n ¡n ¢ n ¡n−1¢
= n2n−1 .
P P
– Si n > 1, k k = n k−1
k=1 k=1
n ¡ ¢ p
n
cos(k π3 ) = Re([1 + e i π/3 ]n ) = 3n cos(n π6 ).
P
– k
k=0
1) Définition
AIG
Définition 3.6
Un système (S) linéaire à n équations et p inconnues est un système d’équations de la forme :
a 1,1 x 1 + a 1,2 x 2 + · · · + a 1,p x p
= b1
.. ..
(S) . .
a n,1 x 1 + a n,2 x 2 + · · · + a n,p x p = bn
où x 1 , . . . , x p sont des nombres inconnus, b 1 , . . . , b n sont des nombres donnés (appelés seconds
membres) et la famille de nombres (a i , j )(i , j )∈J1;n K×J1;p K est donnée (ce sont les coefficients, on dit
qu’ils forment la matrice du système).
Résoudre (S) c’est trouver tous les p-uplets de nombres (x 1 , . . . , x p ) vérifiant (S). Deux systèmes sont
dits équivalents si et seulement si ils ont les mêmes solutions.
Codage
Les différentes équations d’un système linéaire sont notées du haut vers le bas L1 , L2 , . . . , Ln :
NT
a 1,1 x 1 + a 1,2 x 2 + · · · + a 1,p x p = b 1 (L1 )
.. ..
(S) . .
a n,1 x 1 + a n,2 x 2 + · · · + a n,p x p = b n (Ln )
Les différentes colonnes du système sont notées de gauche à droite C1 , C2 , . . . , Cp .
2) Interprétation géométrique
Lorsque p = 2 : si les coefficients a i ,1 et a 1,2 ne sont pas nuls simultanément, alors l’équation a i ,1 x 1 +
a i ,2 x 2 = b i peut être interprétée comme l’équation d’une droite Di dans un plan muni d’un repère (O, → −
ı ,→− ),
les solutions étant les coordonnées des points M(x 1 , x 2 ) de la droite Di . Résoudre (S) revient alors à chercher
un point commun à plusieurs droites, c’est à dire D1 ∩ · · · ∩ Dn . Dans le cas où n = 2, il y a trois cas possibles :
– Soit D1 et D2 sont sécantes et alors le système a une unique solution.
– Soit D1 et D2 sont confondus et alors les solutions du système sont les coordonnées des points de D1 .
MO
NE
Un système linéaire (S) est dit triangulaire lorsque les coefficients situés sous la diagonale (les coefficients
a i , j avec i > j ) sont nuls. Lorsque s’un système triangulaire a ses coefficients diagonaux non nuls, on le
résout par substitutions remontantes. Exemple :
x + 2y − z + t = 1
x + 2y − z + t = 1
x + 2y − z + t = 1
y − z + 2t = 0 ⇐⇒ y − z + 2t = 0 ⇐⇒ y = z − 2t = 1 − 3t
z +t =1 z = 1−t z = 1−t
x = 1 − 2y + z − t = 4t
⇐⇒ y = 1 − 3t . L’ensemble des solutions est donc {(4t , 1 − 3t , 1 − t , t ) | t ∈ R}
z = 1−t
AIG
Sur cet exemple, on voit que l’inconnue t peut-être quelconque et que les autres s’écrivent en fonction de t .
On dit que t est une inconnue auxiliaire et que x, y, z sont les inconnues principales.
Opérations élémentaires
Les opérations élémentaires de la méthode de Gauss sont :
– L’échange de deux équations Li et L j avec i 6= j , notée Li ↔ L j , elle transforme le système en un
système équivalent car le connecteur « et » est commutatif.
– L’échange de deux colonnes Ci et C j avec i 6= j , notée Ci ↔ C j , elle transforme le système en un
système équivalent car l’addition est commutative.
– Multiplier une ligne Li par un nombre α non nul, notée Li ← αLi , elle transforme le système en un
système équivalent car la nouvelle équation Li est équivalente à l’ancienne puisque α 6= 0.
– Ajouter à une ligne Li un multiple d’une autre ligne L j (i 6= j ), elle notée Li ← Li + λL j , elle transforme
le système en un système équivalent car l’opération Li ← Li − λL j nous permet de revenir à l’ancien
système.
NT
À retenir
La méthode du pivot de Gauss consiste à transformer, avec des opérations élémentaires, le système
linéaire initial (S) en un système équivalent triangulaire dont les coefficients diagonaux sont non nuls.
La méthode est une succession d’étapes, voici le descriptif de l’étape k, celle-ci se déroule en trois temps :
1. On choisit un coefficient non nul dans les lignes Lk à Ln et les colonnes Ck à Cp . Ce coefficient sera
appelé le pivot de l’étape k (noté p k ), pour les calculs à la main on essaie de choisir si possible un
coefficient égal à 1 ou −1.
2. On amène le pivot p k à sa place, c’est à dire ligne Lk et colonne Ck , il peut être nécessaire pour cela
MO
La méthode s’arrête à l’issue de l’étape k lorsqu’on est arrivé à la dernière ligne, ou bien lorsqu’il n’est
plus possible de trouver un pivot parce que tous les coefficients des lignes Lk+1 à Ln et des colonnes Ck+1 à
Cp sont nuls. On peut alors procéder aux substitutions remontantes.
NE
Exemple
:
2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1
3x 1 + 6x 2 − 2x 3 + 5x 4 + 9x 5 = 0
(S)
7x 1 + 18x 2 − 2x 3 + 7x 4 + 7x 5 = 2
2x 1 + 4x 2 − 2x 3 + 3x 4 + x 5 = −1
Étape1 :
2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1
3x 2 + 5x 3 − 2x 4 + 12x 5 = −3 L2 ← 2L2 − 3L1
⇐⇒
15x 2 + 17x 3 − 14x 4 = −3 L3 ← 2L3 − 7L1
x 2 + x 3 − x 4 − x 5 = −2 L4 ← L4 − L1
Étape 2 (L 2 ↔ L 4 ) :
AIG
2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1
x 2 + x 3 − x 4 − x 5 = −2 L2 ← L4
⇐⇒
15x 2 + 17x 3 − 14x 4 = −3
3x 2 + 5x 3 − 2x 4 + 12x 5 = −3 L4 ← L2
2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1
x 2 + x 3 − x 4 − x 5 = −2
⇐⇒
2x 3 + x 4 + 15x 5 = 27 L3 ← L3 − 15L2
2x 3 + x 4 + 15x 5 = 3 L4 ← L4 − 3L2
Étape3 :
2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1
x 2 + x 3 − x 4 − x 5 = −2
⇐⇒ 2x 3 + x 4 + 15x 5 = 27
0 = −24 L4 ← L4 − L3
NT
On voit donc que le système n’a pas de solution.
(1 − λ)x − y + z = 0
FExercice 3.4 Résoudre en fonction du paramètre λ le système −x + (1 − λ)y − z = 0 .
x − y + (1 − λ)z = 0
MO
Fonctions usuelles
Sommaire
AIG
I Fonctions logarithme et exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1) Logarithme népérien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2) La fonction exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
II Fonctions puissances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1) Puissance quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2) Croissance comparée de ces fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
III Fonctions circulaires - Inversions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1) Fonctions circulaires : rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2) Inversion des fonctions circulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
IV Fonctions hyperboliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2) Trigonométrie hyperbolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
NT
I FONCTIONS LOGARITHME ET EXPONENTIELLE
1) Logarithme népérien
1
La fonction x 7→ x est continue sur ]0; +∞[, elle admet une unique primitive qui s’annule en 1.
Définition 4.1
L’unique primitive de la fonction x 7→ x1 sur ]0; +∞[ qui s’annule en 1 est appelée logarithme népérien
Rx
et notée ln. On a donc ∀x > 0, ln(x) = 1 dtt .
1
MO
Cette fonction est donc dérivable sur I =]0; +∞[ et ln0 (x) = , elle est donc strictement croissante sur I.
x
Soit y > 0, la fonction f : x 7→ ln(x y) et dérivable sur I et f 0 (x) = y x1y = x1 , on en déduit que f (x) = ln(x) + c
où c est une constante, on a ln(y) = f (1) = ln(1) + c = c, par conséquent on obtient :
Conséquences :
u0
– Si u est une fonction dérivable qui ne s’annule pas, alors [ln(|u|)]0 = u.
– ∀x, y ∈ R∗ , ln(|x y|) = ln(|x|) + ln(|y|).
– ∀x, y ∈ R∗ , ln(| xy |) = ln(|x|) − ln(|y|).
– ∀n ∈ Z∗ , ∀x ∈ R∗ , ln(|x n |) = n ln(|x|).
NE
x→+∞ x→0 x→+∞ x x→0 x→1 x − 1
Preuve : ∀n ∈ N, ln(2n ) = n ln(2) or ln(2) > 0, donc la suite (ln(2n )) tend vers +∞ ce qui prouve que la fonction ln n’est
pas majorée, par conséquent elle tend +∞.
En posant X = x1 on a lim X = +∞ donc lim ln(x) = lim − ln(X) = −∞.
x→0+ x→0+ X→+∞
lim ln(x) 0
= ln (1) = 1.
x→1 x−1
p Rx dt p
Pour t > 1 on a t 6 t et donc pour x > 1 on a 0 6 ln(x) 6 1 p = 2[ x − 1], le théorème des gendarmes entraîne
t
ln(x)
lim x = 0.
x→+∞
Courbe représentative :
AIG
1
C ln
x 0 1 +∞ 0
ln0 + + 0 1 2 3 4
+∞
−1
ln 0
−∞
−2
−3
NT
Théorème 4.3 (Inégalité de convexité)
∀x > 0, ln(x) 6 x − 1.
2) La fonction exponentielle
La fonction ln est strictement croissante sur I =]0; +∞[, elle définit donc une bijection de I sur J = Im(ln),
comme elle est continue on a Im(ln) =] lim ln; lim ln[= R.
0 +∞
MO
Définition 4.2
La réciproque est appelée fonction exponentielle et notée exp, elle est définie par :
Propriétés :
– La fonction exp est strictement croissante sur R et continue, de plus exp(0) = 1.
– La fonction ln est dérivable sur ]0; +∞[ et sa dérivée ne s’annule pas, donc la fonction exp est dérivable
1
sur R et exp0 (x) = 0 = exp(x) .
ln (exp(x))
– Dans un repère orthonormé, la courbe de la fonction exp et celle de la fonction ln sont symétriques
par rapport à la première bissectrice.
4 C exp
NE
3
1 C ln
0
−4 −3 −2 −1 0 1 2 3 4
−1
−2
AIG
−3
−4
Soient x, y ∈ R, notons X = exp(x) et Y = exp(y) alors X et Y sont dans ]0; +∞[ on peut donc écrire
ln(XY) = ln(X) + ln(Y) ce qui donne x + y = ln(XY), par conséquent exp(x + y) = XY = exp(x) exp(y), on peut
donc énoncer :
Notation : On déduit de ce théorème que pour tout entier n ∈ Z et pour tout réel x on a exp(nx) = [exp(x)]n .
En particulier on a pour x = 1, exp(n) = [exp(1)]n . On pose alors e = exp(1) , d’où exp(n) = e n . Si p et q sont
NT
p
deux entiers premiers entre eux avec q 6= 0 et si r = q , alors exp(qr ) = exp(r )q = e p , comme exp(r ) > 0 on
p
peut écrire exp(r ) = e p = e r [cf fonctions puissances]. On convient alors d’écrire pour tout réel x :
q
exp(x) = e x .
Preuve : La fonction exp est continue et strictement croissante sur R donc Im(exp) =] lim exp; lim exp[=]0; +∞[. Soit
−∞ +∞
ex X e x −1
X = e x alors lim = lim = +∞. lim = exp0 (0) = 1.
x→+∞ x X→+∞ ln(X) x→0 x
II FONCTIONS PUISSANCES
1) Puissance quelconque
Définition 4.3
NE
Si α est un réel et si x > 0 alors on pose x α = e α ln(x) .
Cela définit une fonction f α continue et dérivable sur ]0; +∞[ avec la formule : [x α ]0 = αx α−1 .
Il en découle que si u est une fonction dérivable à valeurs strictement positives, alors la fonction u α est
dérivable et :
¡ α ¢0
u = α × u 0 × u α−1
si α > 0
½
0
On a lim f α (x) = . Dans le premier cas on pose 0α = 0, dans le second cas il y a une
x→0 +∞ si α < 0
asymptote verticale.
si α > 1
½
x α −0 (α−1) ln(x) 0
Lorsque α > 0 : x = e −→ , lorsque α > 1 on a une tangente horizontale
AIG
x→0 +∞ si 0 < α < 1
et lorsque α < 1 on a une tangente verticale.
α<0
4 α>1 α=1
2
0<α<1
1
NT
0
−1 0 1 2 3 4
−1
b) Lorsque α = n1 avec n ∈ N∗ : soit y = x α , on a y n = exp( nn ln(x)) = x, comme y est positif, on dit que y
p
est la racine n e de x. Notation pour x > 0 : x 1/n = n x.
p p
c) Lorsque α = q∈ Q avec p ∈ Z et q ∈ N∗ : soit y = x α , on a y q = exp(q q ln(x)) = x p , comme y est positif,
p
MO
Remarque 4.2 – Pour les réels x strictement positifs, on peut définir les puissances complexes à l’aide de
l’exponentielle complexe en posant x z = e z ln(x) .
NE
2) Croissance comparée de ces fonctions
Définition 4.4
Soit f et g deux fonctions qui ne s’annulent pas au voisinage d’un point a, on dit que f et négligeable
f (x) ¡ ¢
devant g au voisinage de a lorsque : lim g (x) = 0. Notation : f (x) = o g (x) .
x→a a
Comparaison des puissances : si α < β alors x α est négligeable devant x β au voisinage de +∞ et x β est
négligeable devant x α au voisinage de 0 :
³ ´ xα xβ
x α = o x β et x β = o+ x α c’est à dire
AIG
¡ ¢
lim = 0 et lim+ =0
+∞ 0 x→+∞ xβ x→0 xα
Comparaison des puissances et des logarithmes : si α et β sont des réels strictement positifs, alors [ln(x)]α
est négligeable devant x β au voisinage de +∞ et | ln(x)|α est négligeable devant x1β au voisinage de 0 :
[ln(x)]α
µ ¶
³ ´ 1
[ln(x)]α = o x β et | ln(x)|α = o+ β c’est à dire lim = 0 et lim+ x β | ln(x)|α = 0
+∞ 0 x x→+∞ xβ x→0
ln(u) α
µα ¶ ³ ´α ³ ´α β
[ln(x)]α β α ln(u)
Preuve : xβ
= u = β u avec u = x α , ce qui donne la première limite. La deuxième en découle avec
le changement de variable u = x1 .
α
Comparaison des puissances et des exponentielles : si α est un réel et si β > 0, alors x est négligeable
devant e βx au voisinage de +∞, c’est à dire :
NT
³ ´
x α = o e βx c’est à dire lim x α e −βx = 0 .
+∞ x→+∞
[ln(u)]α
Preuve : Lorsque α 6 0 il n’y a rien à démontrer. Lorsque α > 0, u = e x −→ +∞ et on a x α e −βx = uβ
−→ 0.
x→+∞ u→+∞
xβ
FExercice 4.2 Comparer x α et e au voisinage de +∞.
M tan(x)
sin(x)
O A
cos(x)
_
Remarque 4.3 – Le réel x représente également la longueur de l’arc de cercle AM avec A(1, 0), le cercle étant
orienté dans le sens direct.
NE
Quelques propriétés :
– ∀x ∈ R, cos2 (x) + sin2 (x) = 1.
– Les fonctions sinus et cosinus sont 2π-périodiques définies continues dérivables sur R, à valeurs dans
[−1; 1], et on a sin0 = cos et cos0 = − sin.
– La fonction tangente est π-périodique, définie continue dérivable sur R \ { π2 + kπ | k ∈ Z} et on a
tan0 (x) = 1 + tan2 (x) = cos12 (x) .
– Les fonctions sinus et tangente sont impaires alors que la fonction cosinus est paire.
À retenir
Si u est une fonction dérivable alors sin(u) et cos(u) sont dérivables avec les formules :
[sin(u)]0 = u 0 cos(u) et [cos(u)]0 = −u 0 sin(u)
Si de plus la fonction cos(u)) ne s’annule pas, alors la fonction tan(u) est dérivable et :
AIG
0
[tan(u)]0 = u 0 (1 + tan2 (u)) = cosu2 (u)
5
1
4
C sin
0 3
−π − π2 0 π π
2 2
−1 1
0 C tan
− π2 0 π
2
1 −1
C cos
−2
0
NT
π −3
−π − π2 0 π
2
−4
−1
−5
2π 3π 5π
3 , 4 , 6 et π, la parité permet ensuite d’avoir un tableau de −π à π.
– Formules d’addition : ∀x, y ∈ R on a :
• cos(x + y) = cos(x) cos(y) − sin(x) sin(y). En particulier, cos(2x) = 2 cos2 (x) − 1 = 1 − 2 sin2 (x).
• sin(x + y) = sin(x) cos(y) + cos(x) sin(y). En particilier, sin(2x) = 2 sin(x) cos(x).
tan(x)+tan(y) 2 tan(x)
• tan(x + y) = 1−tan(x) tan(y) . En particulier, tan(2x) = 1−tan 2 (x) .
2u 1 − u2
• En posant u = tan( x2 ), on a sin(x) = et cos(x) = .
1 + u2 1 + u2
FExercice 4.3
x2
1/ Montrer que ∀x ∈ R, | sin(x)| 6 |x|, 0 6 1 − cos(x) 6 2 .
2/ Montrer que ∀x ∈] − π2 ; π2 [, | tan(x)| > |x|.
Solution 4.3
1/ Il suffit de le démontrer pour x positif en étudiant la fonction x 7→ x −sin(x), puis on intègre de 0 à x ce qui donne
la deuxième inégalité.
2/ On étudie x 7→ x − tan(x).
Extension
e i z +e −i z e i z −e −i z
On peut prolonger les fonctions sinus et cosinus à C en posant cos(z) = 2 et sin(z) = 2i .
NE
2) Inversion des fonctions circulaires
La fonction arcsin : la fonction sin est strictement croissante sur I = [− π2 ; π2 ], elle définit une bijection de I
sur J = [sin(− π2 ); sin( π2 )] = [−1; 1]. La bijection réciproque est notée arcsin [arcsinus], elle est définie par :
arcsin : [−1; 1] → [− π2 ; π2 ] .
y ∈ [− π2 ; π2 ]
½
x 7→ arcsin(x) = y tel que
sin(y) = x
ZExemple : arcsin(0) = 0, arcsin( 21 ) = π6 , . . .
Cette fonction est strictement croissante et continue sur [−1; 1], elle est dérivable sur ] − 1; 1[ mais pas en
−1 ni en 1 [tangente verticale en ces points], on a la formule suivante :
AIG
1 1
∀x ∈] − 1; 1[, arcsin0 (x) = =p .
cos(arcsin(x)) 1 − x2
À retenir
Si u est une fonction dérivable à valeurs dans ] − 1; 1[ alors la fonction arcsin(u) est dérivable et :
0
[arcsin(u)]0 = p u 2
1−u
C arcsin
π
2
1 C sin
NT
x −1 0 +1
+ π2 − π2 −1
arcsin 0 1 π
2
− π2
−1
− π2
Propriétés :
– ∀x ∈ [−1; 1], sin(arcsin(x)) = x.
– ∀x ∈ [− π2 ; π2 ], arcsin(sin(x)) = x.
MO
Attention !
La fonction f : x 7→ arcsin(sin(x)) n’est pas l’identité, elle est 2π- périodique et impaire, il suffit donc l’étudier
sur [0; π], mais elle vérifie f (π − x) = f (x), la droite x = π2 est donc un axe de symétrie et l’étude se réduit à [0; π2 ],
intervalle sur lequel f (x) = x.
La fonction arccos : la fonction f : [0; π] → [−1; 1] définie par f (x) = cos(x), est continue et strictement
décroissante, elle définit donc une bijection de [0; π] sur [−1; 1]. Par définition, la bijection réciproque est
appelée fonction arccosinus et notée arccos, elle est définie par :
NE
arccos : [−1; 1] → [0; π] .
y ∈ [0; π]
½
x 7→ arccos(x) = y tel que
cos(y) = x
AIG
À retenir
Si u est une fonction dérivable à valeurs dans ] − 1; 1[ alors la focntion arccos(u) est dérivable et :
0
[arccos(u)]0 = p−u 2
1−u
C arccos
π
x −1 0 +1 π
2
π
π 1
arccos 2
0 π
2 π
NT
−1 1
−1
C cos
Propriétés :
– ∀x ∈ [−1; 1], cos(arccos(x)) = x.
– ∀x ∈ [0; π], arccos(cos(x)) = x.p
– ∀x ∈ [−1; 1], sin(arccos(x)) = 1 − x 2 .
– ∀x ∈ [−1; 1], arccos(x) + arcsin(x) = π2 .
– ∀x ∈ [−1; 1], arccos(−x) = π − arccos(x).
Attention !
MO
La fonction f : x 7→ arccos(cos(x)) n’est pas l’identité, elle est 2π- périodique et paire, il suffit donc l’étudier sur
[0; π] intervalle sur lequel f (x) = x.
La fonction arctan : la fonction f :]− π2 ; π2 [→ R définie par f (x) = tan(x), est continue et strictement croissante,
elle définit donc une bijection de ] − π2 ; π2 [ sur R. Par définition, la bijection réciproque est appelée fonction
arctangente et notée arctan, elle est définie par :
arctan : R → ] − π2 ; π2 [ .
y ∈] − π2 ; π2 [
½
x 7→ arctan(x) = y tel que
tan(y) = x
p
ZExemple : arctan(0) = 0, arctan(1) = π4 , arctan( 3) = π3 , . . .
Cette fonction est strictement croissante, continue et dérivable sur R et on a la formule suivante :
1 1
∀x ∈ R, arctan0 (x) = = .
1 + tan2 (arctan(x)) 1 + x2
À retenir
Si u désigne un fonction dérivable, alors la fonction arctan(u) est dérivable et :
NE
u0
[arctan(u)]0 = 1+u 2
C tan
π
2
x −∞ 0 +∞
π C arctan
2
arctan 0 − π2 π
2
− π2
AIG
− π2
Propriétés :
– ∀x ∈ R, tan(arctan(x)) = x.
– ∀x ∈] − π2 ; π2 [, arctan(tan(x)) = x.
– ∀x ∈ R, arctan(−x) = − arctan(x).
– ∀x ∈ R∗+ , arctan(x) + arctan( x1 ) = π2 .
³ ´
– ∀x ∈ R, arctan(x) = arcsin p x 2 .
1+x
– ∀x ∈ R, arctan(x) = Arg(1 + i x).
NT
IV FONCTIONS HYPERBOLIQUES
1) Définition
Définition 4.5
e x +e −x e x −e −x
Pour x ∈ R, on pose ch(x) = 2 [cosinus hyperbolique], sh(x) = 2 [sinus hyperbolique] et
sh(x) x −x
e −e
th(x) = ch(x) = e x +e −x [tangente hyperbolique].
Le cosinus hyperbolique : la fonction ch est paire, définie continue dérivable sur R et ch0 (x) = sh(x), on en
déduit le tableau de variation et la courbe :
MO
4
C ch
x −∞ 0 +∞ 3
+∞ +∞
ch 2
1
1
0
−3 −2 −1 0 1 2
Quelques propriétés :
– ∀x ∈ R, ch(x) > 1.
– lim ch(x)
x = +∞ et lim
ch(x)
x = 12 .
x→+∞ x→+∞ e
Le sinus hyperbolique : la fonction sh est impaire, définie continue dérivable sur R et sh0 (x) = ch(x), on en
déduit le tableau de variation et la courbe :
NE
5
4
3 C sh
2
x −∞ 0 +∞
1
+∞ 0
sh 0 −3 −2 −1 0 1 2
−1
−∞
−2
−3
−4
−5
AIG
−6
Quelques propriétés :
– ∀x ∈ R, ch(x) > 1.
– lim ch(x)
x = +∞ et lim
ch(x)
x = 12 .
x→+∞ x→+∞ e
x
– ∀x ∈ R, ch(x) + sh(x) = e et ch(x) − sh(x) = e −x .
– ∀x > 0, x < sh(x) < ch(x).
– lim sh(x)
x = +∞ et lim
sh(x) 1
ex = 2 .
x→+∞ x→+∞
La tangente hyperbolique : la fonction th est impaire, définie continue dérivable sur R et
C th
x −∞ 0 +∞
+1
th 0 −3 −2 −1 0 1 2
−1
−1
MO
Quelques propriétés :
– ∀x ∈ R, −1 < th(x) < 1.
– ∀x > 0, th(x) < x.
2) Trigonométrie hyperbolique
– ∀x ∈ R, ch2 (x) − sh2 (x) = 1.
– Formules d’addition : ∀x, y ∈ R on a :
• ch(x + y) = ch(x)ch(y) + sh(x)sh(y).
• sh(x + y) = sh(x)ch(y) + ch(x)sh(y).
th(x)+th(y)
• th(x + y) = 1+th(x)th(y) .
ch(2x) = 2ch2 (x) − 1 = 1 + 2sh2 (x)
En particulier : sh(2x) = 2sh(x)ch(x) .
th(2x) = 2th(x)
2
1+th (x)
x+y x−y
– Transformations de somme en produit : ∀x, y ∈ R, en posant p = 2 et q = 2 , on a x = p + q et
y = p − q, on obtient :
x+y x−y
• ch(x) + ch(y) = 2ch( 2 )ch( 2 ).
NE
x+y x−y
• ch(x) − ch(y) = 2sh( 2 )sh( 2 ).
x+y x−y
• sh(x) + sh(y) = 2sh( 2 )ch( 2 ).
sh(x+y)
• th(x) + th(y) = ch(x)ch(y) .
z −z
Remarque 4.4 – Il est possible d’étendre ces fonctions aux complexes, en posant pour z ∈ C, ch(z) = e +e
2 et
e z −e −z
sh(z) = 2 . On peut déduire des formules d’Euler que pour tout réel x, cos(x) = ch(i x) et i sin(x) = sh(i x).
AIG
NT
MO
Sommaire
AIG
I Rappels et compléments sur les fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1) Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2) Opérations sur les fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3) Plan d’étude d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
II Fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2) Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3) Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
III Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
1) Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2) Primitives usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3) Calculs d’intégrales et de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4) Primitives de certaines fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . 50
NT
Dans ce chapitre, les fonctions considérées sont définies sur un intervalle non trivial de R.
Rappels :
a) Deux fonctions sont égales lorsqu’elles ont le même ensemble de départ, le même ensemble d’arrivée,
et le même graphe.
b) Si f : I → R est une fonction, on appelle « image de f », l’ensemble noté f (I) et défini par :
1) Vocabulaire
– Représentation graphique : soit P un plan muni d’un répère (O, → −ı ,→
− ), la représentation graphique de
f est l’ensemble C f = M(x, f (x)) | x ∈ I . On dit que y = f (x) est une équation de la courbe représen-
© ª
• strictement monotone sur I lorsque : f est ou bien strictement croissante ou bien strictement
décroissante.
FExercice 5.1 Étudier le sens de variation de la composée de deux fonctions monotones, puis de la somme, puis du
NE
produit.
– Bornée : soit f : I → R une fonction, on dit que f est :
• majorée sur I lorsqu’il existe un réel M tel que ∀ x ∈ I, f (x) 6 M. Si c’est le cas, la courbe de f est sous
la droite y = M.
• minorée sur I lorsqu’il existe un réel m tel que ∀ x ∈ I, f (x) > m. Si c’est le cas, la courbe de f est
au-dessus la droite y = m.
• bornée sur I lorsque f est à la fois minorée et majorée, ce qui équivaut à : | f | est majorée.
– Parité : soit f : I → R une fonction, on dit que f est :
• paire lorsque : ∀ x ∈ I, −x ∈ I et f (−x) = f (x). Dans ce cas la courbe représentative de f admet l’axe
des ordonnées comme axe de symétrie.
Plus généralement, si ∀ x ∈ I, 2a − x ∈ I et f (2a − x) = f (x), alors la courbe de f admet la droite
AIG
d’équation x = a comme axe de symétrie.
• impaire lorsque : ∀ x ∈ I, −x ∈ I et f (−x) = − f (x). Si c’est le cas, alors la courbe de f admet un centre
de symétrie, l’origine du repère.
Plus généralement, si ∀ x ∈ I, 2a − x ∈ I et f (2a − x) = 2b − f (x), alors la courbe de f admet le point
A(a, b) comme centre de symétrie.
– Périodicité : soit f : I → R une fonction et soit a ∈ R∗ , on dit que a est une période de f lorsque :
∀ x ∈ I, x ± a ∈ I et f (x + a) = f (x). Si c’est le cas, le courbe de f est invariante par les translations
→
−
de vecteurs na i où n ∈ Z. Si f est périodique, on appelle période fondamentale de f la plus petite
période strictement positive si elle existe.
FExercice 5.2 Soit f : I → R une fonction périodique, on note
G f = T ∈ R | ∀x ∈ I, x + T ∈ I, x − T ∈ I, f (x + T) = f (x)
© ª
Montrer que (G f , +) est un groupe (appelé groupe des périodes de f ). Lorsque f admet une période fondamen-
tale a, montrer que G f = aZ.
– Extremum global : on dit que f : I → R admet un :
NT
• maximum global en x 0 ∈ I lorsque : ∀ x ∈ I, f (x) 6 f (x 0 ). Si c’est le cas, on pose f (x 0 ) = max f (x).
x∈I
• minimum global en x 0 ∈ I lorsque : ∀ x ∈ I, f (x) > f (x 0 ). Si c’est le cas, on pose f (x 0 ) = min f (x).
x∈I
Attention !
Une fonction même bornée n’a pas forcément de maximun ou de minimum. Par exemple, la fonction
arctan a pour ensemble image Im(arctan) =] − π2 ; π2 [, la fonction est donc bornée mais n’a ni maximum, ni
minimum.
Définition 5.1
Soient f , g ∈ F (I, R) et soit λ ∈ R, on pose :
– f + g la fonction de I vers R définie par : ∀ x ∈ I, ( f + g )(x) = f (x) + g (x).
– f × g la fonction de I vers R définie par : ∀ x ∈ I, ( f × g )(x) = f (x)g (x).
– λ. f la fonction de I vers R définie par : ∀ x ∈ I, (λ. f )(x) = λ f (x).
Propriétés
a) Pour l’addition :
– elle est commutative, associative,
– elle admet un élément neutre : la fonction nulle (notée 0),
– toute fonction f de I vers R admet un opposé qui est la fonction − f : x 7→ − f (x),
NE
– α.( f + g ) = α. f + α.g ,
– α.(β. f ) = (αβ). f ,
c) Pour la multiplication :
– elle associative, commutative,
– elle possède un élément neutre, la fonction constante qui à x donne 1 (notée 1),
– elle est distributive sur l’addition,
– seules les fonctions f qui ne s’annulent jamais ont un inverse (la fonction 1f ).
donc (F (I, R), +, ×) n’est pas un corps, mais seulement un anneau commutatif, celui - ci n’est pas
intègre, par exemple χQ × (1 − χQ ) = 0.
AIG
Définition 5.2 (fonctions max et min)
Soient f , g : I → R deux fonctions, on pose max( f , g ) et min( f , g ) les fonctions de I vers R définies
par : ∀ x ∈ I, max( f , g )(x) = max( f (x), g (x)) et min( f , g )(x) = min( f (x), g (x)). En particulier on pose
f + = max( f , 0) et f − = max(− f , 0), on a alors f + − f − = f et f + + f − = | f |.
f 6 g ⇐⇒ ∀ x ∈ I, f (x) 6 g (x)
c’est une relation d’ordre partiel.
NT
3) Plan d’étude d’une fonction
Ensemble de définition, ensemble d’étude
– D f est l’ensemble des réels de l’ensemble de départ ayant une image par f .
– Si D f est symétrique par rapport à un réel a, il se peut que la courbe de f présente une symétrie :
• un axe d’équation x = a lorsque ∀ x ∈ D f , f (2a − x) = f (x).
• un centre de symétrie de coordonnées (a, b) lorsque ∀ x ∈ D f , f (2a − x) = 2b − f (x).
Dans les deux cas, on peut restreindre l’étude à D f ∩ [a; +∞[.
– S’il existe un réel T > 0 tel que : ∀ x ∈ D f , x ± T ∈ D f , f (x + T) = f (x), alors f est T-périodique. On peut
restreindre l’étude à un intervalle de longueur une période : D f ∩ [a; a + T[ (a peut être quelconque),
on complète ensuite la courbe avec les translations de vecteurs nT→ −ı , n ∈ Z.
MO
Il se peut que f admette un prolongement par continuité aux bornes (finies) de D f . C’est un calcul de
limite, si celle-ci existe dans R, alors il y a un prolongement. Si celle-ci est infinie, alors il y a une asymptote
verticale.
S’il y a un prolongement, on étudie la fonction prolongée, ce qui change l’ensemble de définition.
Continuité, dérivabilité
– On cherche à appliquer les théorèmes généraux, pour cela il faut regarder comment est faite la fonction
(somme, produit, composée...).
– Il reste parfois des points où ces théorèmes ne s’appliquent pas, on étudie alors la continuité en
revenant à la définition (calcul de limite). S’il y a continuité, alors on étudie s’il y a dérivabilité en ce
même point, il y a plusieurs méthodes : le théorème sur la limite de la dérivée, ou la définition (limite
du taux d’accroissement).
Sens de variation
On rappelle que le théorème qui donne le sens de variation en fonction du signe de la dérivée, n’est
NE
valable que sur un intervalle.
– On peut parfois éviter l’étude du signe de la dérivée : sens de variation d’une somme, d’une composée,
p
d’un produit... Par exemple, les fonctions ln(u), u, e u ont le même sens de variation que u.
– Lorsqu’on ne peut pas faire autrement, on étudie le signe de la dérivée (sur un intervalle).
– Les résultats sont consignés dans le tableau des variations, où doivent figurer :
• l’ensemble d’étude,
• les valeurs particulières qui sont intervenues dans l’étude de la continuité, la dérivabilité et l’étude
du signe de la dérivée,
• le signe de la dérivée (si on est passé par là),
• les limites aux bornes de l’ensemble d’étude.
AIG
C f désigne la courbe de f dans un repère orthogonal.
– Si x 0 est un réel de D f ou une borne et si f a une limite infinie en x 0 , alors on dit que C f admet une
asymptote verticale d’équation x = x 0 .
– Si ∞ est une borne de D f , et si lim f = ` ∈ R, alors on dit que C f admet une asymptote horizontale
∞
d’équation y = `.
f (x)
– Si ∞ est une borne de D f , et si lim f = ∞, alors on étudie le rapport x :
∞
f (x)
• Si lim x = ∞ : on dit que C f admet une branche parabolique dans la direction de l’axe Oy, exemple :
∞
x
f (x) = e en +∞.
f (x)
• Si lim x = 0 : on dit que C f admet une branche parabolique dans la direction de l’axe Ox, exemple :
∞
f (x) = ln(x) en +∞.
f (x)
• Si x n’a pas de limite en ∞, alors on ne dit rien, exemple : f (x) = x(2 + sin(x)) en +∞.
NT
f (x)
• Si lim x = a ∈ R∗ : alors on étudie la différence f (x) − ax :
∞
∗ Si lim f (x) − ax = b ∈ R : alors on dit que C f admet une asymptote d’équation y = ax + b, ce qui
∞
équivaut à lim f (x) − ax − b = 0. La position courbe-asymptote se détermine en étudiant le signe
∞
2
de l’expression f (x) − ax − b, exemple : f (x) = x x+2
+x+1
en +∞.
∗ Si lim f (x)−ax = ∞ : alors on dit que C f admet une branche parabolique dans la direction y = ax,
∞
exemple : f (x) = x + ln(x) en +∞.
∗ Si f (x)−ax n’a pas de limite en ∞ : alors on dit que C f admet une branche infinie dans la direction
asymptotique y = ax, exemple : f (x) = x + sin(x) en +∞.
Définition 5.3
Si f et g sont deux fonctions définies au voisinage de ∞, on dit que C f et C g sont asymptotes en ∞
MO
Représentation graphique
– On commence par placer : les asymptotes, les tangentes remarquables, les points particuliers (anguleux,
de rebroussement, d’intersection avec les axes...),
– On donne ensuite l’allure de la courbe d’après le tableau de variation. Il est parfois nécessaire d’étudier
la position de la courbe par rapport à certaines tangentes ou asymptotes.
1) Définition
Soit I un intervalle de R, et f : I → C une fonction à valeurs complexes.
Pour t ∈ I, on pose u(t ) = Re( f (t )) et v(t ) = Im( f (t )), on définit ainsi deux fonctions u et v à valeurs
réelles telles que ∀ t ∈ I, f (t ) = u(t ) + i v(t ).
NE
Définition 5.4
La fonction u est appelée partie réelle de f et la fonction v est appelée partie imaginaire de f .
2) Continuité
Définition 5.5
- Une fonction u : I → R est continue en t 0 ∈ I, lorsque lim f (t ) = f (t 0 ).
t →t 0
AIG
- Soit f : I → C une fonction, soit u sa partie réelle et v sa partie imaginaire, on dit que f est continue
en t 0 ∈ I lorsque les fonctions u et v sont continues en t 0 .
- On dit que f est continue sur I si elle est continue en tout point de I et l’ensemble des fonctions
continues sur I est noté C 0 (I, C).
À retenir
- Les fonctions usuelles vues jusque là sont continues sur leur ensemble de définition.
- La somme, le produit et la composée de deux fonctions continues sont continues. Si f est continue
et ne s’annule pas alors 1f est continue (théorèmes généraux de la continuité).
- Si f est continue sur l’intervalle I et à valeurs réelles, alors l’ensemble f (I) est un intervalle de R
(théorème des valeurs intermédiaires).
NT
- Si f est continue sur un segment [a; b] et à valeurs réelles, alors f a un maximum et un minimum.
- Si f : I → R est continue en a ∈ I alors pour toute suite (u n ) d’éléments de I, si u n → a alors f (u n ) →
f (a).
3) Dérivation
Définition 5.6
- Une fonction u : I → R est dérivable en t 0 ∈ I, lorsque le taux d’accroissement u(tt)−u(t −t 0
0)
admet une
0
limite finie en t 0 . Si c’est le cas, cette limite est notée u (t 0 ) et appelée nombre dérivé de u en t 0 .
- Soit f : I → C une fonction, soit u sa partie réelle et v sa partie imaginaire, on dit que f est dérivable en
MO
t 0 lorsque les fonctions u et v sont dérivables en t 0 . Si c’est le cas, alors on pose f 0 (t 0 ) = u 0 (t 0 )+i v 0 (t 0 ).
¢0 ¢0
On remarquera que si f est dérivable sur I, alors Re( f 0 ) = Re( f ) et Im( f 0 ) = Im( f ) .
¡ ¡
Attention !
Les fonctions usuelles ne sont pas toutes dérivables sur leur ensemble de définition, il y a les exceptions :
- arcsin et arccos ne sont pas dérivables en −1 ni en 1.
- La valeur absolue n’est pas dérivable en 0.
- Les fonctions t 7→ t α avec α ∈]0; 1[ ne sont pas dérivables en 0.
À retenir
- Si f est dérivable en t 0 alors f est continue en t 0 (réciproque fausse).
NE
- Une fonction dérivable f sur un intervalle I est constante si et seulement si sa dérivée est nulle sur I.
- Si f est dérivable sur un intervalle I et f 0 > 0 (respectivement f 0 6 0 alors f est croissante sur I
(respectivement décroissante), et si de plus f 0 ne s’annule pas, alors la monotonie de f est stricte.
- La somme, le produit et la composée de deux fonctions dérivables sont dérivables. Si f est dérivable
et ne s’annule pas alors 1f est dérivable (théorèmes généraux de la continuité).
- Formules de dérivation pour les opérations algébriques (λ ∈ C) : ³ ´ 0 −g 0
1
( f + g )0 = f 0 + g 0 ; (λ f )0 = λ f 0 ; ( f g )0 = f 0 g + f g 0 ; g = g2
- Dérivation d’une composée : ( f ◦ g )0 = g 0 × f 0 ◦ g (ou encore [ f (g )]0 = g 0 × f (g )). 0
1 −i
t est dérivable sur R et f (t ) = (1+i t )2 .
0
ZExemple : La fonction f définie par f (t ) = 1+i
AIG
Remarque 5.1 :
– On remarquera que les formules de dérivation sont les mêmes pour les fonctions à valeurs complexes que
pour les fonctions à valeurs réelles.
f 0 f 0g −f g 0
³ ´
f
– Si f et g sont dérivables et que g ne s’annule pas, alors g est dérivable et g = g2
.
Théorème 5.1
Soit f : I 7→ C une fonction dérivable, alors la fonction t → e f (t ) est dérivable sur I (exponentielle
complexe de f (t )) et : ³ ´ 0
e f (t ) = f 0 (t )e f (t )
Preuve : On pose f (t ) = a(t ) + i b(t ) sous forme algébrique. e f (t ) = e a(t ) × [cos(b(t )) + i sin(b(t ))], la partie réelle est
donc g (t ) = e a(t ) cos(b(t )) et sa partie imaginaire est h(t ) = e a(t ) sin(b(t )). Ces fonctions sont dérivables sur I, donc e f
est dérivable sur I et sa dérivée est g 0 (t ) + i h 0 (t ), il suffit alors de comparer g 0 (t ) + i h 0 (t ) avec f 0 (t )e f (t ) pour constater
NT
l’égalité.
III PRIMITIVES
1) Généralités
Définition 5.7
Soit F, f : I → C deux fonctions, on dit que F est une primitive de f sur I lorsque F est dérivable sur I et
F0 = f .
1 t
FExercice 5.4 Calculer une primitive de f (t ) = 1+i t et de g (t ) = e cos(t ).
MO
Théorème 5.2
Si F et G sont deux primitives de la fonction f sur l’intervalle I, alors il existe une constante α ∈ C telle
que : ∀ t ∈ I, F(t ) = G(t ) + α.
Preuve : On a F0 = G0 = f , d’où (F − G)0 = 0 la fonction nulle, donc Re(F − G)0 = Im(F − G)0 = 0 sur I, ce qui entraîne
que les fonctions Re(F − G) et Im(F − G) sont constantes sur l’intervalle I. Il existe donc a et b deux réels tels que
∀ t ∈ I, Re(F(t ) − G(t )) = a et Im(F(t ) − G(t )) = b, on en déduit que ∀ t ∈ I, F(t ) = G(t ) + α avec α = a + i b.
Remarque 5.2 :
– Si f admet des primitives sur l’intervalle I, si t 0 ∈ I et a ∈ C, alors il existe une unique primitive F de f sur
I telle que F(t 0 ) = a.
– Si U désigne une primitive sur I de la fonction u : I → R et V une primitive de v : I → R, avec u et v
continues, alors la fonction U + i V est une primitive de la fonction complexe u + i v.
Le théorème clé que nous établirons dans le chapitre sur l’intégration dit la chose suivante :
À retenir
Toute fonction f : I → C continue sur un intervalle I, admet des primitives sur cet intervalle. Plus
NE
précisément, si x 0 ∈ I et λ ∈ C, alors l’unique primitive F de f sur I qui vérifie F(x 0 ) = λ est la fonction
Rx
F : I → C définie par F(x) = λ + x0 f (t ) d t .
2) Primitives usuelles
Fonction Primitive
α+1
u0uα u
α+1 si α 6= −1, ln(|u|) sinon
u0e u eu
u 0 cos(u) sin(u)
AIG
u 0 sin(u) − cos(u)
0
u
u 0 (1 + t an 2 (u)) = cos2 (u)
tan(u)
u 0 ch(u) sh(u)
u 0 sh(u) ch(u)
u0
u 0 (1 − t h 2 (u)) = th(u)
ch2 (u)
u 0 tan(u)2 tan(u) − u
0
u
1+u 2
arctan(u)
0
pu arcsin(u)
NT
1−u 2 q¯
u0
ln( ¯ 1+u ¯)
¯
1−u 2 1−u
c) Si 0 6 f sur [a; b] (avec a 6 b), alors 0 6 f (t ) d t , c’est la positivité de l’intégrale. On en déduit que
Z b a Z b
si f 6 g sur [a; b] (avec a 6 b) alors f (t ) d t 6 g (t ) d t .
a a
Z b Z c Z b
d) Si a, b, c sont dans I, alors f (t ) d t = f (t ) d t + f (t ) d t , c’est la relation de Chasles pour
a a c
l’intégrale.
b b
¯Z ¯ Z
¯ ¯
e) Si a 6 b : ¯¯ f (t ) d t ¯¯ 6 | f (t )| d t , c’est la majoration en module de l’intégrale.
a a
Il découle du théorème fondamental, que si F est une primitive de f sur l’intervalle I, alors pour tous
réels x et a de I, on a : Z x
F(x) = F(a) + f (t ) d t
a
Z x
En particulier la fonction x 7→ f (t ) d t est l’unique primitive de f sur I qui s’annule pour x = a. Ainsi,
a
calculer une intégrale peut permettre de trouver des primitives.
En évaluant en x = b on obtient :
Z b
NE
f (t ) d t = F(b) − F(a) = [F(t )]ba
a
Les deux outils fondamentaux pour le calcul d’intégrales, sont : le théorème de l’intégration par parties et
le théorème du changement de variable dont voici les énoncés :
AIG
Théorème 5.4 (changement de variable)
Soit f : I → C une fonction continue, u : [a; b] → I une fonction dérivable à dérivée continue, on a :
Z b Z u(b)
f (u(t ))u 0 (t ) d t = f (x)d x
a u(a)
Z b
Preuve : Soit F une primitive de f sur I, alors F ◦ u est une primitive de u 0 f (u) et donc f (u(t ))u 0 (t ) d t = [F(u)]ba =
Z u(b) a
Dans la pratique on rédige ainsi : posons x = u(t ) alors dd xt = u 0 (t ) d’où d x = u 0 (t )d t et f (u(t )) = f (x).
Pour les bornes : lorsque t = a on a x = u(a) et pour t = b on a x = u(b), puis on remplace dans l’intégrale, ce
Z b Z u(b)
0
qui donne : f (u(t ))u (t ) d t = f (x)d x.
NT
a u(a)
ZExemples : Z 1p
– Calculer 1 − x 2 d x. On pose x = sin(t ) avec t ∈ [0; π2 ], alors d x = cos(t )d t , pour t = 0 on a x = 0 et
0
π
pour t = 2 on a x = 1, d’où :
Z 1p Z π/2 q
2
1−x dx = 1 − sin2 (t ) cos(t ) d t
0 0
Z π/2
= cos2 (t ) d t
0
Z π/2
1 + cos(2t )
= dt
0 2
t sin(2t ) π/2
MO
· ¸
= +
2 4 0
π
=
4
Z x
– Calculer une primitive de la fonction ln sur ]0; +∞[. Une primitive est (par exemple) x 7→ ln(t ) d t
1
pour x > 0, cette intégrale se calcule par parties en posant f 0 (t ) = 1 et g (t ) = ln(t ) :
Z x Z x
ln(t ) d t = [t ln(t )]1x − 1dt
1 1
= x ln(x) − (x − 1) = x ln(x) − x − 1
donc une primitive de la fonction ln sur ]0; +∞[ est la fonction x 7→ x ln(x) − x (on peut évidemment
ajouter n’importe quelle constante).
NE
Sur l’intervalle I =] − ∞; a[ (ou ]a; +∞[), f est continue et admet donc des primitives. Si n = 1 alors une
−1
primitive est F(x) = ln(|x − a|) et si n > 2, une primitive est F(x) = (n−1)(x−a) n−1 .
αx+β
– Fractions du type f (x) = (x−a)(x−b) avec α, β, a et b des réels tels que a 6= b .
À retenir
αx+β c d
Il existe c et d réels tels que (x−a)(x−b) = x−a + x−b , ce qui nous ramène au cas précédent.
AIG
a une unique solution puisque a 6= b.
– Fractions du type f (x) = x 2ax+b
+px+q
avec a, b, p q des réels tels que p 2 − 4q < 0. Le dénominateur n’a pas
de racine réelle, f est donc définie sur R. La méthode est la suivante :
À retenir
• on fait apparaître la dérivée du trinôme x 2 + px + q au numérateur et on compense les x en
multipliant par un facteur adéquat, puis on compense les constantes en ajoutant ce qu’il faut,
ce qui donne :
ax + b a 2x + p ap 1
= + (b − ) .
x 2 + px + q 2 x 2 + px + q 2 x 2 + px + q
0
La première de ces deux fractions est facile à intégrer puisqu’elle est du type uu .
• Pour la deuxième fraction : on met le trinôme x 2 + px + q sous forme canonique afin de mettre
u0
la fraction sous la forme : α 1+u 2 où α est une constante et u est une fonction de x, cette fonction
NT
s’intègre en α arctan(u).
x−2
Par exemple, soit f (x) = x 2 −x+1
:
x −2 1 2x − 1 3 1
f (x) = = −
x2 − x + 1 2 x2 − x + 1 2 x2 − x + 1
et : p
1 1 2 2/ 3
= =p ³ .
x 2 − x + 1 (x − 12 )2 + 34
´2
3 2x−1
p +1
3
1
p
On en déduit qu’une primitive de f sur R est F : x 7→ 2
2 ln(x − x + 1) − 3 arctan( 2x−1
p ).
MO
Équations différentielles
AIG
Sommaire
I Équations différentielles linéaires du premier ordre . . . . . . . . . . . . . . . . . . . . . . . 51
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2) Étude de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3) Étude de l’équation avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . 53
II Équations différentielles linéaires du second ordre . . . . . . . . . . . . . . . . . . . . . . . . 54
1) Étude de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2) Étude de l’équation avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . 55
III Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1) Équations à variables séparées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2) Équation de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3) Méthode d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
NT
Dans ce chapitre, la lettre K désigne l’ensemble R ou bien l’ensemble C (K = R ou K = C), et les fonctions
considérées sont définies sur un intervalle I de R.
Une équation différentielle est une équation dont l’inconnue est une fonction y : I → K intervenant sous
forme dérivée (première ou supérieure). On rencontre ce genre d’équations en mécanique (lois de Newton),
en électricité (circuits RLC), ... etc.
1) Définitions
Définition 6.1
MO
Une équation différentielle scalaire linéaire d’ordre 1 est une équation différentielle de la forme :
(E) : ∀t ∈ I, a(t )y 0 (t ) + b(t )y(t ) = c(t ), notée plus simplement : a(t )y 0 + b(t )y = c(t )
Dans la pratique on a souvent en plus une condition sur la fonction inconnue y du type : y(t 0 ) = α où t 0
et α sont des données. Cette condition est appelée condition initiale, et on appelle problème de Cauchy 1 le
système :
NE
(
∀t ∈ I, a(t )y 0 + b(t )y = c(t )
.
y(t 0 ) = α
ZExemple : L’équation différentielle : y 0 − y = 0 avec y(0) = 1 est utilisée en terminale pour introduire l’expo-
nentielle.
Théorème 6.1
Soit S I (H) l’ensemble des solutions sur I de l’équation homogène (H), alors on a les propriétés :
– 0 ∈ S I (H) (la fonction nulle est dans S I (H)).
AIG
– ∀ f , g ∈ S I (H), f + g ∈ S I (H).
– ∀ α ∈ K, ∀ f ∈ S I (H), α f ∈ S I (H).
Résolution de (H)
On se place sur un intervalle I où la fonction a ne s’annule pas, on a alors ∀ t ∈ I, y 0 = − ba y. Soit F une
primitive de la fonction − ba sur I, on a alors :
d ¡ −F ¢
y ∈ S I (H) ⇐⇒ y 0 = F0 y ⇐⇒ y 0 e −F − F0 e −F y = 0 ⇐⇒ ye = 0 ⇐⇒ ∃ λ ∈ K, ∀ t ∈ I, y(t ) = λe F(t ) .
dt
On peut donc énoncer :
NT
Théorème 6.2
Lorsque la fonction a ne s’annule pas sur l’intervalle I alors les solutions de (H) sont les fonctions :
y : t 7→ λe F(t ) ,
À retenir
Si la fonction a ne s’annule pas sur I :
- Le problème de Cauchy pour l’équation (H) a une unique solution. Car la condition initiale détermine
complètement la constante λ.
MO
- L’unique solution sur I qui s’annule en un point donné est la fonction nulle. Par conséquent toutes
les autres solutions ne s’annulent jamais sur I, lorsque K = R elles ont toutes un signe constant (car
elles sont continues).
ZExemples :
– y 0 + ωy = 0 où ω ∈ K est une constante : les solutions sont les fonctions définies sur R par y(t ) = λe −ωt
avec λ ∈ K quelconque.
– t y 0 = y sur R : on se place d’abord sur I =]0; +∞[, sur cet intervalle on a y 0 = 1t y d’où y(t ) = αt (α ∈ K
quelconque). Puis on se place sur J =]−∞; 0[, sur cet intervalle on a encore y 0 = 1t y d’où y(t ) = λ|t | = βt
(β = −λ ∈ K quelconque). Soit maintenant y une solution sur R, alors y est en particulier solution
sur I donc il existe α tel que ∀ t > 0, y(t ) = αt , de même y est solution sur J, donc il existe β tel que
∀t < 0, y(t ) = βt , mais y doit être dérivable en 0, ce qui entraîne α = β, finalement ∀t ∈ R, y(t ) = αt . On
vérifie pour terminer que cette fonction est bien solution.
NE
Théorème 6.3 (structure des solutions)
Si l’ensemble des solutions de (E) n’est pas vide, et si y 1 est une solution de (E), alors les solutions
de (E) sont les fonctions s’écrivant comme somme de y 1 avec une solution de (H), c’est à dire les
fonctions de la forme : y : t 7→ y 1 (t ) + y H (t ) avec y H solution quelconque de (H).
AIG
Recherche d’une solution particulière : on se place de nouveau sur un intervalle I où la fonction a ne
s’annule pas et on applique la méthode de la variation de la constante :
Soit F une primitive de − ba sur I, on cherche une solution particulière sous la forme y = λe F où λ est une
fonction dérivable sur I. La fonction y est solution de (E) si et seulement si a[λ0 e F + λF0 e F ] + bλe F = c, ce qui
équivaut à aλ0 e F + λ[aF0 e F + be F ] = c ou encore λ0 = ac e −F , car e F est solution de (H). Donc λ doit être une
primitive de la fonction ac e −F , celle-ci est continue sur l’intervalle I, elle admet donc des primitives sur cet I,
ce qui prouve l’existence de λ. Une solution de (E) est donc :
Z t c(s) −F(s)
Z t b(s)
F
y 1 = λe avec λ(t ) = e d s et F(t ) = − d s,
t0 a(s) t0 a(s)
ZExemples :
– t y 0 + y = sin(t ) sur R : sur l’intervalle I =]0; +∞[ les solutions de (H) sont les fonctions y = λt avec λ ∈ K
quelconque. On cherche une solution particulière de la forme y = λt avec λ dérivable sur I ce qui donne
λ0 = sin(t ), une solution particulière est donc y 1 = − cos(t )
t , et les solutions de (E) sur I sont les fonctions
y = λ−cos(t
t
)
avec λ ∈ K quelconque. On se place ensuite sur l’intervalle J =] − ∞; 0[ où le raisonnement
est le même. On vérifie ensuite que la seule solution sur R est la fonction :
MO
1 − cos(t ) 1
y : t 7→ avec y(0) = 0 et y 0 (0) = .
t 2
– cos(t )y 0 −sin(t )y = t 2 sur I =]− π2 ; π2 [ : les solutions de l’équation homogène sont les fonctions y = λ
cos(t )
λ
avec λ ∈ K quelconque. On cherche une solution particulière sous la forme y = cos(t ) avec λ dérivable
2 t3
sur I, ce qui donne λ = t . On peut donc prendre comme solution particulière y 1 =
0
3 cos(t ) , et les
solutions de (E) sont les fonctions :
λ+ t3
y : t 7→ avec λ ∈ K.
3 cos(t )
Remarque 6.1 – Résoudre de telles équations différentielles revient donc à calculer des intégrales, d’où les
expressions que l’on rencontre parfois comme : « intégrer une équation différentielle », ou « solution intégrale
d’une équation différentielle ».
NE
II ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES DU SECOND ORDRE
On s’intéressera uniquement au cas où les coefficients sont des constantes, c’est à dire aux équations
différentielles de la forme : a y 00 + b y 0 + c y = f où a, b, c ∈ K, a 6= 0, et f : I → K une fonction continue (second
membre). L’équation homogène associée est (H) : a y 00 + b y0 + c y = 0.
a y 00 + b y 0 + c y = f
Pour de telles équations, le problème de Cauchy est : y(t 0 ) = α , où t 0 , α et β sont des don-
y 0 (t ) = β
0
nées.
AIG
1) Étude de l’équation homogène
Théorème 6.4
Soit S I (H) l’ensemble des solutions sur I de l’équation homogène (H), alors on a les propriétés :
– 0 ∈ S I (H) (fonction nulle).
– ∀ f , g ∈ S I (H), f + g ∈ S I (H).
– ∀ α ∈ K, ∀ f ∈ S I (H), α f ∈ S I (H).
Résolution de (H)
On cherche les solutions de la forme y = e λt avec λ ∈ K, on obtient alors y ∈ S R (H) ⇐⇒ aλ2 + bλ + c = 0, λ
doit donc être solution de l’équation ax 2 + bx + c = 0, que l’on appelle équation caractéristique de (H). Il
NT
faut donc distinguer plusieurs cas :
– K=C:
• Si ∆ = b 2 − 4ac 6= 0 : il y a deux solutions distinctes à l’équation caractéristique : λ1 et λ2 . On
y
pose φ1 (t ) = e λ1 t . Soit y deux fois dérivable, posons z = φ , on a alors y = zφ1 , en remplaçant dans
1
l’équation on obtient que y est solution de (H) si et seulement si az 00 +(2aλ1 +b)z 0 +(aλ21 +bλ1 +c)z =
0, c’est à dire az 00 + (2aλ1 + b)z 0 = 0 car λ1 est racine de l’équation caractéristique. En posant Z = z 0
on a une équation différentielle linéaire homogène en Z, dont les solutions sont Z(t ) = z 0 (t ) =
γe −(2λ1 +b/a)t = γe (λ2 −λ1 )t , ce qui équivaut à z(t ) = βe (λ2 −λ1 )t + α, et donc y(t ) = αe λ1 t + βe λ2 t avec
α, β ∈ C des constantes quelconques.
• Si ∆ = b 2 −4ac = 0 : alors il y a une solution double à l’équation caractéristique : λ. Posons φ1 (t ) = e λt
y
et z = φ1 i.e. y = zφ1 . Le calcul précédent montre que y ∈ S(H) ⇐⇒ z 00 = 0 c’est à dire il existe α, β ∈ C
tels que z(t ) = βt + α, ce qui donne y(t ) = (α + βt )e λt .
MO
NE
– Si K = C (a, b et c sont complexes avec a 6= 0) :
• Si ∆ 6= 0, l’équation caractéristique à deux solutions distinctes : λ1 et λ2 . Les solutions sont les
fonctions : t 7→ αe λ1 t + βe λ2 t avec α, β ∈ C.
• Si ∆ = 0, l’équation caractéristique à une solution double : λ1 = λ2 . Les solutions sont les fonc-
tions : t 7→ (α + βt )e λ1 t avec α, β ∈ C.
– Si K = R (a, b et c sont réels avec a 6= 0) :
• Si ∆ > 0, l’équation caractéristique à deux solutions distinctes : λ1 et λ2 . Les solutions sont les
fonctions : t 7→ αe λ1 t + βe λ2 t avec α, β ∈ R.
• Si ∆ = 0, l’équation caractéristique à une solution double : λ1 = λ2 . Les solutions sont les fonc-
tions : t 7→ (α + βt )e λ1 t avec α, β ∈ R.
• Si ∆ < 0, l’équation caractéristique possède deux solutions complexes non réelles et conjuguées :
λ et λ, en posant λ = r + i ω (forme algébrique), les solutions sont les fonctions :
AIG
t 7→ (α cos(ωt ) + β sin(ωt ))e r t = A cos(ωt + ϕ)e r t avec α, β, A, ϕ ∈ R
Théorème 6.5
Soient a, b, c ∈ R avec a 6= 0, les solutions réelles de l’équation a y 00 +b y 0 +c y = 0 sont les parties réelles
des solutions complexes.
Preuve : L’existence dans le cas général d’une solution particulière est admise. Soit y 1 une solution de (E), soit g ∈ S I (H),
il est facile de vérifier que y 1 + g est solution de (E), réciproquement, si g est solution de (E), il est facile de vérifier
que g − y 1 est solution de (H). Les solutions au problème de Cauchy sont les fonctions de la forme y = y 1 + αφ1 + βφ2
vérifiant y(t 0 ) = c 1 et y 0 (t 0 ) = c 2 . Ce qui donne le système :
(
αφ1 (t 0 ) + βφ2 (t 0 ) = c 1 − y 1 (t 0 )
.
MO
αφ01 (t 0 ) + βφ02 (t 0 ) = c 2 − y 10 (t 0 )
Théorème 6.7
L’équation a y 00 + b y 0 + c y = P(t )e λt admet une solution particulière de la forme y(t ) = Q(t )e λt où Q
est une fonction polynomiale.
Preuve : On pose y(t ) = Q(t )e λt , y est solution si et seulement si aQ00 (t ) + (2aλ + b)Q0 (t ) + (aλ2 + bλ + c)Q(t ) = P(t ),
d’où la discussion :
– Si λ n’est pas racine de l’équation caractéristique : on cherche un polynôme Q de même degré que P, par la
NE
méthode des coefficients indéterminés et identification ce qui donne un système, on admet à ce stade qu’il y a
toujours au moins une solution à ce système.
– Si λ est solution de l’équation caractéristique et 2aλ + b 6= 0 : on cherche Q0 de même degré que P par la méthode
des coefficients indéterminés et identification, puis on prend une primitive.
– Si λ est solution de l’équation caractéristique et 2aλ+b = 0 (i.e. λ est racine double de l’équation caractéristique) :
on a aQ00 = P d’où Q00 = a1 P, on en déduit Q’ (en prenant une primitive) puis Q (en reprenant une primitive).
Théorème 6.8
• Lorsque le second membre est de la forme f (t ) = ni=1 Pi (t )e λi t , on cherche une solution particulière
P
AIG
• Si a, b, c sont réels et si y 0 est solution de a y 00 + b y 0 + c y = f (t ) alors Re(y 0 ) est solution de a y 00 +
b y 0 + c y = Re( f ) et Im(y 0 ) est solution de a y 00 + b y 0 + c y = Im( f )
homogène sont les fonctions y(t ) = α cos(ωt ) + β sin(ωt ), (α, β ∈ R), et les solutions de l’équation sont
donc les fonctions : y(t ) = ωt 2 + ωω−2
2 2
4 + α cos(ωt ) + β sin(ωt ).
a une solution double 2, les solutions de l’équation homogène sont les fonctions y(t ) = (α + βt )e 2t .
Cherchons une solution particulière en prenant comme second membre :
NT
– f 1 (t ) = 3 : il y a une solution particulière constante y 1 (t ) = 34 .
– f 2 (t ) = 3e 2t : on chercher une solution particulière de la forme y = Q(t )e 2t , ce qui donne Q00 (t ) = 3 et
donc on peut prendre y 2 (t ) = 32 t 2 e 2t .
– f 3 (t ) = 3 sin(t ) : on prend en fait f 3 (t ) = 3e i t puis on prendra la partie imaginaire d’une solution
particulière. On cherche y sous la forme y(t ) = Q(t )e i t ce qui donne Q00 (t )+(2i −4)Q0 (t )+(3−4i )Q(t ) = 3,
3
d’où Q(t ) = 3−4i = 3 3+4i 3+4i i t 9 12
25 . Une solution particulière est donc y 3 (t ) = Im(3 25 e ) = 25 sin(t ) + 25 cos(t ).
Les solutions sont donc les fonctions :
3 9 12 3
y(t ) = + sin(t ) + cos(t ) + (α + βt + t 2 )e 2t .
4 25 25 2
III COMPLÉMENTS
MO
Définition 6.2
Une équation différentielle à variables séparées est une équation de la forme : y 0 b(y) = a(t ) où a, b
sont deux fonctions continues données.
ZExemple : t 3 y 0 + y 3 = 0 avec y(1) = −1, y ne doit pas être constamment nulle, si une telle solution existe, il doit
exister un intervalle I sur lequel y ne s’annule pas, un tel intervalle ne peut pas contenir 0 et sur I l’équation
y0
= −1 , c’est une équation à variable séparée. Elle est équivalente à : − y12 = t12 + λ, ce
NE
est équivalente à : y3 t3
2
t
qui donne y 2 = − 1+λt 2 , on voit que la condition initiale donne la constante λ = −2. Comme y ne s’annule
q
2
pas sur I, y garde un signe constant et donc ∀ t ∈ I, y(t ) = − 2tt2 −1 . Cette solution est définie sur l’intervalle
] p1 ; +∞[.
2
2) Équation de Bernoulli
Définition 6.3
Une équation de Bernoulli 2 est une équation différentielle de la forme y 0 = a(t )y λ + b(t )y où a et b
sont deux fonctions continues sur un intervalle I, et λ ∈ R∗ \ {1}.
AIG
À retenir : méthode de résolution
La fonction nulle est solution. S’il existe une solution y non constamment nulle, alors il doit exister
un intervalle J sur lequel y ne s’annule pas, sur un tel intervalle y est de signe constant, on peut donc
faire le changement de fonction y = εz α avec ε = ±1 suivant le signe de y, l’équation devient alors :
αz 0 = b(t )z + a(t )z α(λ−1)+1 , en prenant α = 1−λ
ordre, on sait donc la résoudre.
1
1
, on a une équation différentielle linéaire du premier
ZExemple : t 2 y 0 + y + y 2 = 0 avec y(1) = 1 : y est une solution non constamment nulle, on pose z =
− 1t
1
y ce qui
donne : z = 0
t2
z + t12 . Les solutions de l’équation homogène sont les fonctions z(t ) = λe et une solution
− 1t
particulière est z 1 (t ) = −1, les solutions générales sont donc les fonctions z(t ) = −1 + λe , la condition
NT
initiale donne λ = 2e d’où y(t ) = 1−11 . Cette solution est définie sur l’intervalle ] 1+ln(2)
1
; +∞[.
2e t −1
3) Méthode d’Euler
On ne dispose pas de méthode générale pour résoudre n’importe quelle équation différentielle.
Même pour des équations différentielles linéaires il se peut que les solutions ne s’expriment pas à l’aide
2 2
des fonctions usuelles, par exemple : y 0 = e −t y ⇐⇒ y : t 7→ λe F(t ) avec F une primitive de t 7→ e −t , on
sait qu’une telle primitive existe sur R mais on peut démontrer qu’il est impossible de l’exprimer avec les
fonctions usuelles.
Pour des applications numériques (par exemple dans les sciences appliquées), la formule qui donne les
solutions n’est donc pas toujours satisfaisante. On a alors imaginé des méthodes de calculs approchés des
solutions d’équations différentielles, la plus simple d’entre elles étant la méthode d’Euler :
MO
Considérons l’équation différentielle y 0 (t ) = f (t , y(t )) où f est une fonction de deux variables. On cherche
une solution approchée vérifiant la condition initiale y(t 0 ) = α. On considère un nombre h assez proche de 0
(par exemple h = 10−6 ), ce nombre est appelé le pas de la méthode, puis on construit deux suites (t n ) et (y n )
où y n est censé être une valeur approchée de y(t n ), dans la méthode d’Euler on pose :
(
t n+1 = tn + h
y 0 = α, et ∀n ∈ N,
y n+1 = y n + h × f (t n , y n )
On peut ensuite représenter dans un repère les points de coordonnées (t n , y n ) ce qui donnera une
approximation de la courbe représentative de la solution y.
Cette méthode repose sur le principe suivant : lorsque h est proche de 0, on peut approcher la fonction y
sur l’intervalle [t n , t n +h] par la tangente à C y au point d’abscisse t n , c’est à dire y(t ) ≈ y 0 (t n )[t −t n ]+ y(t n ). Par
conséquent y(t n + h) ≈ y(t n ) + h × y 0 (t n ), or y(t n ) est approché par y n et y 0 (t n ) = f (t n , y(t n )) donc y 0 (t n ) peut
2. BERNOULLI Jakob (1654 – 1705) : c’est le plus illustre d’une grande famille de mathématiciens suisses.
NE
|y n − y(t n )| 6 K × |h|
AIG
2 5.378
2.4 7.53 6
2.8 10.541
y5
5
y4 4
3
y3
y2 2
y1
y0 1
NT
t0 0 t1 t2 t3 t4 t5 t6
−1 0 1 2
Applications - Relations
AIG
Sommaire
I Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2) Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3) Famille d’éléments d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
II Injection, surjection, bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
1) Injection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2) Surjection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3) Bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
III Images directes, images réciproques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
IV Relations binaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
NT
2) Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3) Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
I APPLICATIONS
La notion d’application (ou fonction) entre deux ensembles E et F (non vides) est une notion clé en
mathématiques. C’est l’idée d’associer, ou de faire correspondre, à chaque élément de E un élément de F.
1) Définitions
Définition 7.1
MO
NE
Pour désigner une application on utilise en général une lettre minuscule. Si f est une application de E
© ª
vers F on écrit : f : E → F , et le graphe de f est l’ensemble G f = (x; f (x) | x ∈ E .
x 7→ f (x)
ZExemples :
– L’exponentielle est une application de R vers R.
– Le logarithme est une application de ]0; +∞[ vers R.
– Soit f : R → R définie par f (x) = x1 n’est pas une application car 0 n’a pas d’image, on dit que son
ensemble de définition est D f = R∗ . Par contre, la restriction de f à son ensemble de définition est une
application, on la note f |D f : D f → R. Lorsqu’une application g est une restriction d’une application f ,
on dit que f est un prolongement de g
AIG
Soit E un ensemble, l’identité de E est l’application de E dans E qui à chaque élément de E associe
lui-même. On la note idE : E → E .
x 7→ idE (x) = x
Diagramme sagittal
Lorsque les ensembles E et F ont très peu d’éléments, on peut représenter une application f : E → F sous
forme d’un diagramme sagittal :
E F
e1 f1
e2 f2
f3
NT
e3
f4
e4 f5
© ª
Dans cet exemple, le graphe de f est G f = (e 1 , f 3 ); (e 2 , f 1 ); (e 3 , f 3 ); (e 4 , f 2 ) .
ZExemples : © ª
– Dans l’exemple du diagramme sagittal, l’ensemble image est Im( f ) = f 1 ; f 2 ; f 3 .
– L’ensemble image de la fonction cosinus est [−1; 1]. Plus généralement, pour déterminer l’ensemble
NE
image d’une fonction f : I → R où I est un intervalle de R, on étudie les variations de f et sa continuité
(en vue d’appliquer le théorème des valeurs intermédiaires).
– L’ensemble image de la fonction g : C → C définie par ∀z ∈ C, g (z) = z 2 est Im(g ) = C.
2) Composition
Lorsque l’ensemble d’arrivée d’une application coïncide avec l’ensemble de départ d’une autre applica-
tion, alors il est possible « d’enchaîner » les deux, c’est la composition :
f g
E → F → G
x 7→ f (x) 7→ g ( f (x))
AIG
Définition 7.4
Soient E, F, G trois ensembles, f : E → F et g : F → G deux applications. La composée g ◦ f est l’appli-
cation de E vers G définie par : ∀x ∈ E, (g ◦ f )(x) = g ( f (x)) :
g◦f : E → G
x 7 → (g ◦ f )(x) = g ( f (x))
Attention !
On prendra garde à l’ordre dans l’écriture de g ◦ f .
Remarque 7.1 :
NT
– Lorsqu’on a deux applications f : E → F et g : H → G avec seulement F ⊂ H (au lieu de F = H), alors on
peut encore définir la composée et on la note encore g ◦ f même si théoriquement on devrait plutôt écrire
¡ ¢
g |F ◦ f .
– Lorsque f est une application d’un ensemble E vers lui-même, alors on peut composer f avec elle-même,
et autant de fois que l’on veut. Si n est un entier strictement positif, on notera f n = f ◦ · · · ◦ f . Par
convention, on pose f 0 = idE .
ZExemple : Si f est l’application de R vers R définie par ∀x ∈ R, f (x) = x + 1, alors ∀n ∈ N, f n est l’application
de R vers R définie par ∀x ∈ R, f n (x) = x + n.
1
FExercice 7.1 Écrire la fonction f : ]1; +∞[→ R définie par f (x) = px−1 , comme composée de trois fonctions.
Définition 7.5
Soit I un ensemble non vide, et soit E un ensemble. On appelle famille d’éléments de E indexée par I,
toute application u : I → E, on note généralement cette famille (u i )i ∈I , et pour i ∈ I, on note u(i ) = u i
(appelé terme d’indice i ). L’ensemble de départ I est appelé ensemble des indices de la famille. Une
famille d’éléments de E indexée par N est appelée suite d’éléments de F. L’ensemble des familles
NE
Familles de parties d’un ensemble E
Conformément à la définition ci-dessus, une famille de parties de E indexée par un ensemble I non vide,
est une application A : I → P (E), que l’on peut noter (Ai )i ∈I (Ai étant une partie de E pour tout i ∈ I). On peut
alors généraliser les notions d’intersection et de réunion de la manière suivante :
S
– La réunion de la famille (Ai )i ∈I est Ai = {x ∈ E | ∃i ∈ I, x ∈ Ai }.
i ∈I T
– L’intersection de la famille (Ai )i ∈I est : Ai = {x ∈ E | ∀i ∈ I, x ∈ Ai }.
i ∈I
FExercice 7.2
1/ Pour n ∈ N, on pose An =]n; n + 1]. Déterminer
S T
An et An .
n∈N n∈N
1 1
2/ Même question avec n ∈ N∗ et An = [ n+1 ;1− n+1 ].
Solution 7.2
AIG
1/ La réunion est ]0; +∞[, et l’intersection est vide.
©1ª
2/ La réunion est ]0; 1[ et l’intersection est le singleton 2 .
Les propriétés vues dans le chapitre I se généralisent :
Théorème 7.2
Soit (Ai )i ∈I une famille de parties de E et soit B une partie de E, alors :
µ ¶ µ ¶
S S T T
– B∩ Ai = (B ∩ Ai ) et B ∪ Ai = (B ∪ Ai ) (distributivité).
i ∈I i ∈I i ∈I i ∈I
µ ¶ µ ¶
S T T S
– CE Ai = CE (Ai ) et CE Ai = CE (Ai ) (lois de De Morgan).
i ∈I i ∈I i ∈I i ∈I
Dans cette partie nous allons dégager des propriétés éventuelles des applications. Ces notions joueront
un rôle important par la suite.
1) Injection
Définition 7.6
Soit f : E → F une application, on dit que f est une injection (ou f est injective) lorsque tout élément
de l’ensemble d’arrivée a au plus un antécédent dans l’ensemble de départ. Ce qui revient à dire :
MO
E F E F
e1 f1 e1 f1
e2 f2 e2 f2
f3 f3
e3 e3
f4 f4
e4 f5 e4 f5
ZExemples :
– Si E est un ensemble non vide, idE est injective. Soit A une partie non vide de E, l’application f : A → E
x 7→ x
NE
est injective, c’est l’injection canonique de A dans E.
x+1
– f : R \ {1} → R définie par f (x) = x−1 est une injection.
– g : ]0; +∞[→ R définie par g (x) = ln(x) est une injection.
– h : R → R définie par h(x) = x 2 n’est pas une injection.
– Une fonction f : I → R strictement monotone sur l’intervalle I est injective.
Preuve : Si f est injective : soit x, y ∈ E tels que f (x) = f (y), x et y sont donc deux antécédents d’un même élément de
AIG
F, f étant injective ces deux éléments ne peuvent pas être distincts (sinon on a une contradiction) donc x = y.
Supposons que f vérifie : ∀x, y ∈ E, f (x) = f (y) =⇒ x = y. Soit z ∈ F ayant deux antécédents distincts x et y dans E,
alors z = f (x) = f (y), on en déduit que x = y ce qui est absurde, donc z ne peut pas avoir deux antécédents distincts,
par conséquent f est injective.
2) Surjection
Définition 7.7
Soit f : E → F une application, on dit que f est une surjection (ou f est surjective) lorsque tout
élément de l’ensemble d’arrivée a au moins un antécédent dans l’ensemble de départ. Ce qui revient
à dire : pour tout élément y de F, l’équation y = f (x) a moins une solution x dans E, ou encore
∀y ∈ F, ∃x ∈ E, y = f (x).
MO
E F E F
e1 f1 e1 f1
e2 e2
f2 f2
e3 e3
e4 f3 e4 f3
e5 f4 e5 f4
À retenir
Dire que f : E → F est surjective, équivaut à Im( f ) = F.
NE
ZExemples :
– Si E est un ensemble non vide, idE est surjective.
– f : C → C définie par f (z) = z 2 et une surjection.
– f : R → U définie par f (x) = e i x est une surjection.
– h : R \ {1} → R définie par h(x) = 2x+1
x−1 n’est pas surjective.
– Si f : E → F est une application, alors f induit une surjection entre E et Im( f ) qui est l’application
g : E → Im( f ) définie par g (x) = f (x).
AIG
– Si f et g sont surjectives alors g ◦ f est surjective.
– Si g ◦ f est surjective alors g est surjective mais pas forcément f .
Définition 7.8
Soient E, F deux ensembles et f : E → F une application, on dit que f est une bijection (ou application
bijective) lorsque tout élément de F a un unique antécédent par f , ce qui peut s’écrire de la manière
suivante : ∀y ∈ F, ∃! x ∈ E, f (x) = y.
E F E F
e1 f1 e1 f1
MO
e2 f2 e2 f2
e3 f3 e3 f3
e4 f4 e4 f4
Dire que tout élément de F a un unique antécédent revient à dire que tout élément de F a au moins
un antécédent et au plus un antécédent. Par conséquent dire que f est bijective revient à dire que f est
surjective et injective.
À retenir
f est bijective ⇐⇒ f est surjective et injective.
NE
ZExemples :
– Si E est un ensemble non vide, alors idE est une bijection.
– f : [0; +∞[→ [0; +∞[ définie par f (x) = x 2 est une bijection.
– g : R →]0; +∞[ définie par g (x) = e x est une bijection.
– h : R → R définie par h(x) = e x n’est pas une bijection.
À retenir
Si f : E → F est injective, alors f induit une bijection de E vers Im( f ) qui est f˜ : E → Im( f ) définie
par f˜(x) = f (x). Cela s’applique en particulier aux fonctions f : I → R strictement monotones sur
AIG
l’intervalle I.
Attention !
La notation f −1 n’a de sens que lorsque f est bijective.
NT
ZExemples :
– Si E est un ensemble non vide, alors idE est une bijection et la bijection réciproque est id−1
E = idE .
– f : [0; +∞[→ [0; +∞[ définie par f (x) = x 2 est une bijection et la bijection réciproque est la fonction
racine carrée.
– g : R →]0; +∞[ définie par g (x) = e x est une bijection et la bijection réciproque est la fonction loga-
rithme népérien.
À retenir
Lorsque f : E → F est bijective : ∀x ∈ F, ∀y ∈ E, f −1 (x) = y ⇐⇒ f (y) = x.
MO
f
E F
y x
f −1
Théorème 7.6
Soit f : E → F une bijection.
¢−1
– On a f −1 ◦ f = idE et f ◦ f −1 = idF . De plus f −1 est une bijection et f −1
¡
=f.
– Si g : : F → G est une autre bijection, alors la composée g ◦ f est une bijection de E vers G, et sa
bijection réciproque est : (g ◦ f )−1 = f −1 ◦ g −1 .
Preuve : – La composée f −1 ◦ f existe et va de E dans E. Si x ∈ E, alors ( f −1 ◦ f )(x) = f −1 ( f (x)) = x car x est l’unique
antécédent de f (x) par f , on a donc f −1 ◦ f = idE . De même, f ◦ f −1 existe et va de F dans F. Si x ∈ F, alors ( f ◦ f −1 )(x) =
f ( f −1 (x)) = x car f −1 (x) est l’unique antécédent de x par f , on a donc f ◦ f −1 = idF . Le point suivant est évident.
NE
– Si g : F → G est une autre bijection, soit y ∈ G, alors pour tout x ∈ E on a :
(g ◦ f )(x) = y ⇐⇒ g ( f (x)) = y
⇐⇒ f (x) = g −1 (y)
⇐⇒ x = f −1 (g −1 (y)) = ( f −1 ◦ g −1 )(y)
le résultat en découle.
FExercice 7.6 Soient f : E → F et g : F → E deux applications telles que f ◦ g = idF et g ◦ f = idE . Montrer que f et g sont
bijectives et réciproques l’une de l’autre.
Remarque 7.2 – Le résultat de cet exercice est à connaître.
AIG
Définition 7.10 (involution)
Soit E un ensemble non vide. Une involution de E est une application f de E vers lui-même telle que
f ◦ f = idE . Une telle application est bijective et elle est sa propre réciproque : f −1 = f .
ZExemples :
– Dans le plan, les symétries ponctuelles, les symétries axiales, sont des involutions du plan.
– La fonction f : R∗ → R∗ définie par f (x) = x1 est une involution de R∗ .
– La conjugaison dans C est une involution de C.
1) Définitions
NT
Définition 7.11
Soit f : E → F une application, A une partie de E et B une partie de F.
– On appelle image directe de A par f , l’ensemble des images des éléments de A par f , ou encore, l’en-
© ª
semble des éléments F qui ont un antécédent dans A par f . Notation : f (A) = y ∈ F | ∃x ∈ A, f (x) = y ,
c’est une partie de F.
– On appelle image réciproque de B par f , l’ensemble des antécédents des éléments de B par f .
Notation : f −1 (B) = x ∈ E | f (x) ∈ B , c’est une partie de E.
© ª
Attention !
La notation f −1 (B) ne suppose pas que f est bijective. Mais lorsque f est effectivement bijective, on peut vérifier
MO
Remarque 7.3 :
– On a f (E) = Im( f ) et f −1 (F) = E.
– Dans le cas d’une fonction f : I → R continue sur l’intervalle I, l’étude de la fonction permet de déterminer
l’image directe d’une partie de I et l’image réciproque d’une partie de R.
ZExemple : Soit f la fonction sinus, on a f ([0; π[) = [0; 1], f −1 ([0; 1]) =
S
[2kπ; (2k + 1)π].
k∈Z
2) Propriétés
Théorème 7.7
Soit f : E → F une application. Pour toutes parties A et B de E, on a :
NE
– Si A ⊂ B alors f (A) ⊂ f (B).
– f (A ∪ B) = f (A) ∪ f (B).
– f (A ∩ B) ⊂ f (A) ∩ f (B).
– A ⊂ f −1 ( f (A)).
Preuve :
– Le premier point est évident.
– Si x ∈ A ∪ B alors x ∈ A ou x ∈ B donc f (x) ∈ f (A) ou f (x) ∈ f (B), c’est à dire f (x) ∈ f (A) ∪ f (B). On a donc
f (A ∪ B) ⊂ f (A) ∪ f (B). Réciproquement, on a f (A) ⊂ f (A ∪ B) et f (B) ⊂ f (A ∪ B) (d’après le premier point) et donc
f (A) ∪ f (B) ⊂ f (A ∪ B), d’où l’égalité.
– Si x ∈ A ∩ B alors f (x) ∈ f (A) et f (x) ∈ f (B) d’où f (x) ∈ f (A) ∩ f (B), donc f (A ∩ B) ⊂ f (A) ∩ f (B).
– Si x ∈ A alors f (x) ∈ f (A), d’où l’inclusion.
AIG
Remarque 7.4 :
– Dans le cas de l’intersection (3e propriété), on n’a pas l’égalité en général. Par exemple, si f est la fonction
cosinus de R dans R, si A = [− π2 ; − π3 ] et B = [0; π], alors f (A) ∩ f (B) = [0; 12 ] alors que f (A ∩ B) = ;.
– De même pour la dernière propriété, par exemple, en reprenant la fonction cosinus avec A = [0; π], on a
f (A) = [−1; 1] et f −1 ( f (A)) = R.
FExercice 7.7
1/ Montrer que les propriétés 2 et 3 du théorème précédent se généralisent à une famille quelconque de parties de
E.
2/ Soient f : E → F et g : F → G deux applications, soit A une partie de E, montrer que (g ◦ f )(A) = g ( f (A)). Soit B
une partie de G, montrer que (g ◦ f )−1 (B) = f −1 (g −1 (B)).
3/ Montrer que f : E → F est injective si et seulement si pour tout partie A de E on a f −1 ( f (A)) = A.
Théorème 7.8
NT
Soit f : E → F une application. Pour toutes parties A et B de F, on a :
– Si A ⊂ B alors f −1 (A) ⊂ f −1 (B).
– f −1 (A ∪ B) = f −1 (A) ∪ f −1 (B).
– f −1 (A ∩ B) = f −1 (A) ∩ f −1 (B).
Preuve :
– Si x ∈ f −1 (A) alors f (x) ∈ A donc f (x) ∈ B, d’où x ∈ f −1 (B).
– x ∈ f −1 (A ∪ B) ⇐⇒ f (x) ∈ A ou f (x) ∈ B ⇐⇒ x ∈ f −1 (A) ∪ f −1 (B).
– x ∈ f −1 (A ∩ B) ⇐⇒ f (x) ∈ A et f (x) ∈ B ⇐⇒ x ∈ f −1 (A) ∩ f −1 (B).
IV RELATIONS BINAIRES
MO
Nous revenons dans cette partie à la notion générale de relation définie en début de chapitre. Mais on
s’intéresse plus particulièrement aux relations d’un ensemble E dans lui-même.
1) Définitions
Définition 7.12
Soit R une relation d’un ensemble E vers lui - même, on dit que R est :
– réflexive lorsque tout élément est en relation avec lui - même : ∀ x ∈ E, xRx.
– symétrique lorsque : ∀ x, y ∈ E, si xR y alors yRx (le graphe de R est symétrique).
– antisymétrique lorsque : ∀ x, y ∈ E, si xR y et yRx alors x = y. On remarquera qu’il ne s’agit pas de
la négation de symétrique.
– transitive lorsque : ∀ x, y, z ∈ E, si xR y et yRz alors xRz.
ZExemples :
– Dans R, la relation R définie par : ∀ x, y ∈ R, xR y ⇐⇒ x 6 y, est une relation réflexive, antisymétrique
et transitive.
NE
– Dans Z, la relation S définie par : ∀ x, y ∈ Z, xS y ⇐⇒ x − y ∈ 2Z, est une relation réflexive, symétrique
et transitive.
– Soit E un ensemble, la relation T définie dans P (E) par : ∀ A, B ∈ P (E), AT B ⇐⇒ A ⊂ B. Cette relation
T est réflexive antisymétrique et transitive.
2) Relation d’équivalence
Définition 7.13
Soit E un ensemble et R une relation de E dans E, on dit que R est une relation d’équivalence
lorsqu’elle est réflexive, symétrique et transitive. Si c’est le cas, alors pour tout élément a de E, on
appelle classe de a l’ensemble des x ∈ E en relation avec a, notation : Cl (a) = {x ∈ E / xRa}.
ZExemples :
AIG
– L’égalité dans un ensemble est une relation d’équivalence.
– Soit n ∈ Z, la relation définie dans Z, par ∀ x, y ∈ Z, xR y ⇐⇒ x − y ∈ n Z, est une relation d’équivalence.
Cette relation est appelée la congruence modulo n dans Z, et on note ∀x, y ∈ Z, x ≡ y (mod n) ⇐⇒
∃k ∈ Z, x − y = kn.
– Soit a ∈ R, la relation définie dans R, par ∀ x, y ∈ R, xR y ⇐⇒ x − y ∈ a Z, est une relation d’équivalence.
Cette relation est appelée la congruence modulo a dans R, et on note ∀x, y ∈ R, x ≡ y (mod a) ⇐⇒
∃k ∈ Z, x − y = ka.
Théorème 7.9
Si R est une relation d’équivalence dans E, alors :
NT
– ∀ a, b ∈ E, Cl(a) = Cl(b) ⇐⇒ aRb.
– Les classes d’équivalence forment une partition de E, c’est à dire :
• Les classes d’équivalence sont des parties de E non vides et deux à deux disjointes.
• La réunion des classes d’équivalence est égale à E.
3) Relation d’ordre
MO
Définition 7.14
– Soit R une relation dans un ensemble E, on dit que R est une relation d’ordre lorsque cette relation
est : réflexive, antisymétrique et transitive. Lorsque c’est le cas, on dit que (E, R) est un ensemble
ordonné.
– Deux éléments x et y de E sont dits comparables pour l’ordre R lorsque l’on a xR y ou bien yRx.
Lorsque tous les éléments de E sont comparables deux à deux, on dit que l’ordre R est total et que
(E, R) est un ensemble totalement ordonné, sinon on dit que l’ordre est partiel et que (E, R) est
partiellement ordonné.
– Une relation d’ordre est en général notée 6, c’est à dire que xR y est plutôt noté x 6 y.
ZExemples :
– L’ordre naturel sur les réels est une relation d’ordre total.
– Soit E un ensemble, (P (E), ⊂) est un ensemble partiellement ordonné (dès que card(E) > 2).
NE
– Soit I un ensemble non vide, on pose E = F (I, R) l’ensemble des fonctions définies sur I et à valeurs
réelles. On définit dans E la relation R : pour f , g ∈ E, f Rg ⇐⇒ ∀ x ∈ I, f (x) 6 g (x). On vérifie que R
est une relation d’ordre partiel (dès que card(I) > 1), cette relation est appelée ordre fonctionnel et
notée 6.
– Pour (x, y) et (x 0 , y 0 ) ∈ R2 , on pose :
0
x < x
(x, y)R(x 0 , y 0 ) ⇐⇒ ou
x = x 0 et y 6 y 0
On vérifie que R est une relation d’ordre total sur R2 (appelée ordre lexicographique et notée 6).
AIG
Remarque 7.5 – On prendra garde au fait que lorsque l’ordre est partiel, la négation de x 6 y est :
x et y ne sont pas comparables
ou
x et ysont comparables et x > y
Définition 7.15
Soit (E, 6) un ensemble ordonné et A une partie de E, on dit que :
– A est majoré dans E lorsque : ∃M ∈ E, ∀x ∈ A, x 6 M.
– A est minoré dans E lorsque : ∃m ∈ E, ∀x ∈ A, m 6 x.
– A est borné dans E lorsque A est à la fois majoré et minoré.
– A admet un maximum lorsque : ∃a ∈ A, ∀x ∈ A, x 6 a. Si c’est le cas, on note a = max(A).
NT
– A admet un minimum lorsque : ∃a ∈ A, ∀x ∈ A, a 6 x. Si c’est le cas, on note a = min(A).
Attention !
– Une partie d’un ensemble ordonné n’est pas forcément majoré (ou minoré), par exemple N est non majoré dans R.
– Une partie majorée (ou minorée) dans un ensemble ordonné n’a pas forcément de maximum (ou minimum). Par
exemple [0; 1[ dans R.
FExercice 7.8 Montrer que si A admet un maximum dans (E, 6), alors celui-ci est unique (même chose pour minimum).
MO
Nombres réels
AIG
Sommaire
I L’ensemble des réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1) Rappels sur les rationnels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2) Opérations et ordre sur les réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
II Borne inférieure, borne supérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
1) Propriété fondamentale de l’ensemble des réels . . . . . . . . . . . . . . . . . . . . . . . 71
2) Intervalles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3) La droite numérique achevée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4) Voisinages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
III Approximation d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
1) Valeur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2) Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3) Approximations décimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
NT
L’existence des ensembles Q et R est admise.
NE
note A et B et qui vérifient :
– A et B sont stables pour l’addition.
– Q+ ⊂ A et Q− ⊂ B.
– R = A ∪ B.
– A ∩ B = {0}.
– Si x, y ∈ A alors x y ∈ A, si x, y ∈ B alors x y ∈ A et si x ∈ A et y ∈ B, alors x y ∈ B (règle des signes).
On définit alors une relation R dans R en posant : ∀ x, y ∈ R, xR y ⇐⇒ x − y ∈ B. Cette relation est :
– Réflexive : ∀ x ∈ R, xRx.
– Antisymétrique : si xR y et yRx alors x = y.
– Transitive : si xR y et yRz, alors xRz.
Le relation R est donc une relation d’ordre sur R. On la notera désormais 6, c’est à dire que xR y sera
AIG
noté x 6 y (i.e. x − y ∈ B).
On remarquera que x 6 0 signifie que x ∈ B, et que 0 6 x signifie que −x ∈ B et donc x ∈ A car x = (−1)(−x) :
produit de deux éléments de B. D’autre part, si x ∈ A et y ∈ B, alors x 6 y car y − x = y + (−x) : somme de deux
éléments de B.
Si x et y sont deux réels quelconques, on a x − y ∈ A ou x − y ∈ B, c’est à dire x − y ∈ B ou y − x ∈ B, c’est à
dire encore x 6 y ou y 6 x. Deux réels sont donc toujours comparables, l’ordre est total.
Notation : On pose A = R+ et B = R− .
Théorème 8.1
La relation d’ordre 6 est :
– Compatible avec l’addition, c’est à dire :
∀ x, y, z ∈ R, si x 6 y alors x + z 6 y + z.
NT
– Compatible avec la multiplication par un réel positif :
∀ x, y, z ∈ R, si 0 6 z et x 6 y alors xz 6 y z.
Conséquences
– Si x 6 y et a 6 b, alors x + a 6 y + b.
– Si 0 6 x 6 y et 0 6 a 6 b alors 0 6 ax 6 b y.
MO
Remarque 8.1 –
– I est non majoré équivaut à : ∀ M ∈ R, ∃ x ∈ I, x > M.
– I est non minoré équivaut à : ∀ m ∈ R, ∃ x ∈ I, x < m.
NE
– I est borné équivaut à : ∃ M ∈ R, ∀ x ∈ I, |x| 6 M.
Définition 8.1
Soit I une partie non vide de R. Si l’ensemble des majorants de I n’est pas vide et s’il admet un plus
petit élément, alors celui-ci est appelé borne supérieure de I et noté sup(I). La borne supérieure
(lorsqu’elle existe) est donc le plus petit des majorants.
Si l’ensemble des minorants de I n’est pas vide et s’il admet un plus grand élément, alors celui-ci est
appelé borne inférieure de I et noté inf(I). La borne inférieure (lorsqu’elle existe) est donc le plus
grand des minorants.
AIG
ZExemples :
– I =]0; 1], l’ensemble des majorants est [1; +∞[, celui-ci admet un plus petit élément qui est 1, donc
sup(I) = 1. L’ensemble des minorants de I est ] − ∞; 0] qui admet un plus grand élément : 0, donc
inf(I) = 0.
– I =]1; +∞[, l’ensemble des majorants est vide donc I n’a pas de borne supérieure. L’ensemble des
minorants est ] − ∞; 1], celui-ci admet un plus grand élément : 1, donc inf(I) = 1.
Attention !
On remarquera qu’une borne inférieure (ou supérieure) d’un ensemble I n’a aucune raison d’appartenir à I.
Voici le lien entre minimum et borne inférieure (ou maximum et borne supérieure) :
Théorème 8.2
NT
Soit I une partie non vide de R et soit a un réel :
– a = min(I) ssi a ∈ I et a = inf(I).
– a = max(I) ssi a ∈ I et a = sup(I).
Théorème 8.3
Soit I une partie non vide de R et soit m un réel, alors :
(
m majore I
m = sup(I) ⇐⇒
MO
Conséquence : il en découle que toute partie de R non vide et minorée admet une borne inférieure.
Preuve : Soit A une partie de R non vide et minorée par un réel m, alors l’ensemble −A = {−a / a ∈ A} est une partie
de R non vide et majorée par le réel −m. D’après le théorème précédent, −A admet une borne supérieure M et donc
NE
l’ensemble des majorants de −A est [M, +∞[, on en déduit que l’ensemble des minorants de A est ] − ∞; −M] et donc A
admet une borne inférieure qui est −M, c’est à dire inf(A) = − sup(−A).
ZExemples :
– Soit a un réel positif, on pose A = {x ∈ R / x 2 6 a}. A est une partie non vide de R car 0 ∈ A, d’autre
part A est majoré par a + 1 car x > a + 1 =⇒ x 2 > a 2 + 2a + 1 > a. L’ensemble A admet donc une borne
p
supérieure M. En raisonnant par l’absurde on peut montrer que M2 = a, par conséquent M = a, c’est
une définition possible de la fonction racine carrée.
– Soient A et B deux parties de R non vides et bornées telles que A ⊂ B. Montrer que inf(B) 6 inf(A) et
sup(A) 6 sup(B).
Réponse : inf(B) est un minorant de B donc un minorant de A, par conséquent inf(B) 6 inf(A) car inf(A)
est le plus grand des minorants de A. De même, sup(B) majore B , donc majore A également, d’où
AIG
sup(A) 6 sup(B) car sup(A) est le plus petit des majorants de A.
– Soient A et B deux parties de R non vides et majorées, on pose A + B = {a + b / a ∈ A, b ∈ B}. Montrer
que sup(A + B) = sup(A) + sup(B).
Réponse : sup(A)+sup(B) majore A+B, donc A+B admet une borne sup. et sup(A+B) 6 sup(A)+sup(B).
Soient a ∈ A et b ∈ B, a + b 6 sup(A + B), donc a 6 sup(A + B) − b, ce qui signifie que A est majoré par
sup(A + B) − b, d’où sup(A) 6 sup(A + B) − b, mais alors b 6 sup(A + B) − sup(A), donc B est majoré par
sup(A + B) − sup(A), d’où sup(B) 6 sup(A + B) − sup(A) et finalement sup(A) + sup(B) 6 sup(A + B) ce
qui prouve bien l’égalité.
2) Intervalles
Définition 8.2
Soit I une partie non vide de R, on dit que I est un intervalle lorsque : tout réel compris entre deux
NT
éléments de I est lui-même élément de I, c’est à dire :
∀ x, y ∈ I, ∀ z ∈ R, x 6 z 6 y =⇒ z ∈ I.
Théorème 8.5
Si I est un intervalle non vide de R alors on a :
– soit I = R,
– soit I = [a; +∞[ ou I =]a, +∞[,
– soit I =] − ∞; b] ou I =] − ∞; b[,
MO
Preuve : Le premier correspond à I non borné, le deuxième à I minoré et non majoré, le troisième à I non minoré et
majoré, le quatrième à I borné.
ZExemple : Z n’est pas un intervalle de R car 1, 2 ∈ Z mais pas 23 . Q n’est pas un intervalle de R.
Théorème 8.6
On a les propriétés suivantes :
– L’intersection de deux intervalles de R est un intervalle de R.
– La réunion de deux intervalles de R non disjoints est un intervalle de R.
Preuve : Soient I et J deux intervalles de R, posons K = I ∩ J. Si K est vide, alors c’est un intervalle. Si K n’est pas vide,
alors soit x, y ∈ K et soit z un réel tel que x 6 z 6 y. Comme I est un intervalle contenant x et y, I contient z, de même J
contient z, finalement z ∈ K et donc K est un intervalle de R.
NE
Supposons I et J non disjoints et soit K = I ∪ J. K est non vide, soit x, y ∈ K et soit z un réel tel que x 6 z 6 y. Si x et y
sont dans I, alors z est dans I et donc dans K, de même si x et y sont dans J. Si x est dans I et y dans J, soit t ∈ I ∩ J, si
z 6 t , alors z est compris entre x et t qui sont éléments de I, donc z ∈ I. Si t 6 z, alors z est compris entre t et y qui sont
éléments de J, donc z est élément de J. Dans les deux cas on a bien z ∈ K et donc K est un intervalle de R.
Définition 8.3
L’ensemble R ∪ {−∞, +∞} est noté R et appelé droite numérique achevée.
AIG
On prolonge la relation d’ordre de R à R en posant pour tout réel x : −∞ < x < +∞. L’ensemble R devient
ainsi un ensemble totalement ordonné, de plus il possède un maximum (+∞) et un minimum (−∞).
Pour tout réel x on pose :
– (+∞) + x = x + (+∞) = +∞.
– (−∞) + x = x + (−∞) = −∞.
– (+∞) + (+∞) = +∞.
– (−∞) + (−∞) = −∞.
– Si x > 0 : x(+∞) = (+∞)x = +∞ et (−∞)x = x(−∞) = −∞.
– si x < 0 : x(+∞) = (+∞) = −∞ et (−∞)x = x(−∞) = +∞.
– (+∞)(+∞) = +∞, (−∞)(−∞) = +∞ et (−∞)(+∞) = (+∞)(−∞) = −∞.
Remarque 8.2 – On prendra garde au fait que nous n’avons pas défini de loi de composition interne dans R
puisque nous n’avons pas défini 0 × (±∞) ni (−∞) + (+∞). Les règles de calculs définies ci-dessus auront leur
NT
utilité dans le chapitre sur les limites.
Théorème 8.7
Soit A une partie non vide de R, alors A admet une borne supérieure et une borne inférieure dans R.
Preuve : Soit A une partie non vide de R. Si A est majorée dans R alors admet une borne supérieure réelle (propriété
fondamentale de R). Si A n’est pas majorée dans R, alors dans R l’ensemble des majorants est {+∞}, donc il y a une
borne supérieure dans R qui est +∞ (le plus petit majorant). Le raisonnement est le même pour la borne inférieure.
4) Voisinages
MO
Définition 8.4
Soit x ∈ R, toute partie de R contenant un intervalle de la forme ]x − ε; x + ε[ où ε > 0 est appelé
voisinage de x .
Toute partie de R contenant un intervalle ouvert de la forme ]a; +∞[ (a ∈ R) est appelé voisinage de
+∞ .
Toute partie de R contenant un intervalle ouvert de la forme ] − ∞; a[ (a ∈ R) est appelé voisinage de
−∞ .
Théorème 8.8
Soit V1 , V2 deux voisinages de x ∈ R, alors V1 ∩ V2 est un voisinage de x. Soit a, b ∈ R, si a < b alors il
existe un voisinage V de a et un voisinage V 0 de b tels que ∀x ∈ V et ∀y ∈ V 0 , x < y.
Définition 8.5
Soit P(x) une proposition dépendante de x ∈ R, et soit a ∈ R, on dit que la propriété P est vraie au
NE
voisinage de a lorsqu’il existe au moins un voisinage V de a tel que :
ZExemple : Soit f (x) = x 2 + x −1, alors au voisinage de 0 on a f (x) < 0, et au voisinage de +∞, f (x) > 0. En effet,
le trinôme x 2 + x − 1 admet deux racines réelles : x 1 < 0 et x 2 > 0, posons ε = min(|x 1 |, |x 2 |), si x ∈]0 − ε; 0 + ε[
alors x ∈]x 1 ; x 2 [ et donc x 2 + x − 1 < 0, V =]x 1 ; x 2 [ est donc un voisinage de 0 et sur ce voisinage on a bien
f (x) < 0. Posons W =]x 2 ; +∞[, alors W est un voisinage de +∞ et sur ce voisinage on a bien f (x) > 0.
AIG
1) Valeur absolue
Soit x un réel, les deux nombres x et −x sont comparables puisque l’ordre est total, ce qui donne un sens
à la définition suivante :
Définition 8.6
Soit x ∈ R, on appelle valeur absolue de x le réel noté |x| et défini par : |x| = max(x, −x). On a donc
|x| = x lorsque 0 6 x, et |x| = −x lorsque x 6 0.
L’ensemble R peut être assimilé à une droite graduée (i.e. munie d’un repère (O, → −
u )), les réels sont alors
les abscisses des points de cette droite. Si A(a) et B(b) sont deux points de cette droite, alors le réel positif
|b − a| représente la distance de A à B, en particulier |x| représente la distance de l’origine au point d’abscisse
x.
NT
|b − a|
O →
−
u A(a) B(b) R
Théorème 8.9
Soient x, y des réels :
– |x| ∈ R+ , |x| = | − x|, x 6 |x| et −x 6 |x|.
– |x| = 0 ⇐⇒ x = 0.
– |x y| = |x||y| et si x 6= 0 alors | x1 | = |x|
1
. On en déduit que k f r ac1x| = 1
et ∀n ∈ N, |x n | = |x|n .
MO
|x|
– ||x| − |y|| 6 |x − y| 6 |x| + |y| (inégalité triangulaire).
À retenir
Soient a, b, x trois réels avec b positif :
– |a| 6 b ⇐⇒ a 6 b et − a 6 b ⇐⇒ −b 6 a 6 b.
– |a| > b ⇐⇒ a > b ou −a > b.
– |a − x| 6 b ⇐⇒ −b 6 a − x 6 b ⇐⇒ a − b 6 x 6 a + b.
– |a − x| > b ⇐⇒ x > a + b ou x 6 a − b.
Définition 8.7
Soit a un réel et ε > 0, on appelle intervalle ouvert de centre a et de rayon ε, l’intervalle ]a − ε; a + ε[.
NE
C’est l’ensemble des réels x tels que |x − a| < ε. On définit de la même façon l’intervalle fermé de
centre a et de rayon ε.
On rappelle qu’un intervalle ouvert est un intervalle de la forme : ]a; b[ ou ]a; +∞[ ou ]−∞; b[. L’ensemble
vide et R sont des intervalles ouverts.
Théorème 8.10
Soit I un intervalle ouvert non vide, pour tout élément a de I il existe au moins un voisinage de a
inclus dans I : ∀ a ∈ I, ∃ ε > 0, ]a − ε; a + ε[⊂ I.
Preuve : Il suffit de passer en revue les différents cas pour I. Par exemple, si I =]α; β[ avec α < β (sinon I est vide), on
peut prendre ε = min(a − α, β − a). On remarquera que l’on peut remplacer intervalle ouvert de centre a par intervalle
AIG
fermé de centre a.
2) Partie entière
Théorème 8.11
L’ensemble R est archimédien, c’est à dire : ∀ x, y ∈ R∗+ , ∃ n ∈ N, x 6 n y.
Preuve : Par l’absurde, supposons que ∀ n ∈ N, x > n y. Soit A = {n y / n ∈ N}, A est non vide (contient y) et majoré par x,
donc A admet une borne supérieure. Soit b = sup(A), on a b − y < b donc il existe un entier n 0 ∈ N tel que b − y < n 0 y,
d’où b < (n 0 + 1)y ce qui est absurde car (n 0 + 1)y ∈ A.
Preuve : Montrons l’existence : si x = 0 il suffit de prendre n = 0. Supposons x non nul et soit A = {n ∈ Z / x < n + 1}, on
vérifie que A est non vide (si x < 0 alors 0 ∈ A et si x > 0 on utilise que R est archimédien), de plus A est minoré par x − 1,
cet ensemble admet donc une borne inférieure c. On a c < c + 12 donc le réel c + 12 ne minore pas A donc il existe un
entier n 0 ∈ A tel que c 6 n 0 < c + 12 , si c < n 0 , alors n 0 ne minore pas A, donc il existe n 1 ∈ A tel que c 6 n 1 < n 0 < c + 12
ce qui est absurde car n 0 et n 1 sont deux entiers distincts dans un intervalle de longueur 12 . On en déduit que c = n 0 ∈ A
d’où n 0 = min(A), mais alors n 0 − 1 ∉ A, c’est à dire x > n 0 − 1 + 1, par conséquent on a n 0 6 x < n 0 + 1.
Montrons l’unicité : soient n, n 0 ∈ Z tels que n 6 x < n + 1 et n 0 6 x < n 0 + 1, alors |n − n 0 | = |(x − n) − (x − n 0 )| < 1 car
x − n et x − n 0 sont dans l’intervalle [0; 1[, comme n et n 0 sont entiers, on en déduit que |n − n 0 | = 0 i.e. n = n 0 .
Propriétés
MO
a) La fonction partie entière est une fonction croissante sur R et elle constante sur tout intervalle de la
forme [n; n + 1[ lorsque n ∈ Z.
1
0
−4 −3 −2 −1 0 1 2 3 4
−1
−2
−3
−4
b) La fonction partie entière est continue sur R \ Z. Pour n ∈ Z, elle est continue à droite mais pas à gauche
en n.
NE
c) Pour tout réel x et tout entier n, on a bx + nc = bxc + n.
d) La fonction x 7→ x − bxc est une fonction 1-périodique.
bxc ∈ Z
½
e) La partie entière de x est entièrement caractérisée par : .
bxc 6 x < bxc + 1
Théorème 8.13
Tout intervalle de la forme ]a; b[ où a < b contient au moins un rationnel, on dit que Q est dense dans
R.
¥ ¦ de l’intervalle ]a; b[ et ε sa demi - longueur. Rpétant archimédien, il existe un entier q tel que
Preuve : Soit x le milieu
1 6 qε. Posons p = q x , on a alors p 6 q x < p + 1, d’où en posant r = q , r est un rationnel et r 6 x < r + q1 6 r + ε, par
AIG
conséquent, |x − r | < ε et donc r ∈]a; b[.
Remarque 8.3 – Ce théorème traduit que aussi près que l’on veut de n’importe quel réel, on peut trouver des
p
rationnels. De plus la démonstration fournit une méthode de construction de q .
p p ¦
Par exemple, avec x = 2 et εp= 10−3 , on peut prendre q = 1000 et p = 1000 2 = 1414 (car 14142 6
¥
p
2.106 < 14152 ), d’où q = 1, 414 et | 2 − 1, 414| < 10−3 .
Théorème 8.14
Tout intervalle ]a; b[ où a < b contient au moins un irrationnel, donc l’ensemble des irrationnels,
R \ Q, est dense dans R.
Preuve : Comme précédemment on appelle x le milieu de l’intervalle ]a; b[ et ε la demip- longueur. Si x ∈ R \ Q alors
p
il n’y a rien à faire. Si x ∈ Q, alors il existe un entier n tel que 2 < nε, on pose y = x + n2 , le réel y est irrationnel et
NT
p
2
|x − y| = n < ε donc y ∈]a; b[.
Remarque 8.4 –
– Ce qui signifie qu’aussi près que l’on veut de tout réel x, on peut trouver des éléments de A. Voici une
autre définition équivalente (et très utile) :
– A est dense dans R ssi pour tout réel x il existe une suite (a n ) d’éléments de A qui converge vers x.
MO
3) Approximations décimales
Définition 8.9
Soient a, x, ε trois réels avec ε > 0, on dit que a est une valeur approchée de x à ε près lorsque la
distance entre a et x et inférieure ou égale à ε : |a − x| 6 ε. On dit que a est une valeur approchée de x
par défaut (respectivement par excès) à ε près lorsque a 6 x 6 a + ε (respectivement a − ε 6 x 6 a).
Propriétés
a+b
a) Si a est une valeur approchée de x par défaut et b une valeur approchée de x par excès, alors 2 est
une valeur approchée de x à b−a
NE
2 près.
b) Si a est une valeur approchée de x par défaut à ε près et b une valeur approchée de x par excès à ε près,
ε
alors a+b
2 est une valeur approchée de x à 2 près.
Soit x ∈ R et soit n ∈ N, on a bx10n c 6 x10n < 1 + bx10n c, en multipliant par 10−n on obtient :
bx10n c bx10n c
6 x < + 10−n .
10n 10n
n n
Ce qui signifie que bx10 c
10n est une valeur approchée de x par défaut à 10
−n
près, et que bx10 c
10n + 10
−n
est une
−n
valeur approchée de x par excès à 10 près. Il faut remarquer que ces deux approximations de x sont des
nombres décimaux (i.e. un entier sur une puissance de dix).
AIG
Définition 8.10
bx10n c
On appelle approximation décimale de x par défaut à 10−n près, le nombre : 10n .
ZExemples : p n
– Prenons x = 2 et posons a n = bx10 10n
c
Théorème 8.15
bx10n c
Soit x ∈ R et a n = 10n , pour n ∈ N∗ on pose d n = 10n (a n − a n−1 ), alors d n est un entier compris entre
0 et 9.
Preuve¥ : 10n a n¦ = b10n xc 6 10n x < 1 + b10n xc, d’autre part 10n a n−1 = 10 10n−1 x 6 10n x < 10 + 10 10n−1 x , d’où
¥ ¦ ¥ ¦
−10 − 10n−1 x < −10n x 6 −10n a n−1 , on en déduit que d n − 10 < 0 < d n + 1, par conséquent 0 6 d n < 10, or d n est un
entier, donc d n 6 9.
MO
Définition 8.11
Pour n > 1, l’entier d n = 10n (a n − a n−1 ) = b10n xc − 10 10n−1 x est appelé n-ième décimale de x.
¥ ¦
n
Remarquons que d n 10−n = a n − a n−1 , ce qui entraîne que a 0 + d k 10−k = a n , or la suite (a n ) converge
P
k=1
vers x, on écrit alors :
+∞
d k 10−k (développement décimal de x)
X
x = a0 +
k=1
Suites numériques
AIG
Sommaire
I Suites réelles, généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2) Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3) Opérations sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
II Suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3) Convergence et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4) Convergence et relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5) Caractérisations séquentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
III Suites ayant une limite infinie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2) Limite infinie et ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
NT
3) Limite infinie et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
IV Théorèmes d’existence d’une limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
1) Suites monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2) Suites adjacentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3) Le théorème de BOLZANO - WEIERSTRASS . . . . . . . . . . . . . . . . . . . . . . . . . 86
V Comparaison des suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2) Les exemples classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
VI Extension aux suites complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
MO
2) Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
1) Définitions
Définition 9.1
Une suite numérique u est une application de A vers R : u : A → R, où A est une partie de N. Par
convention le réel u(n) est noté u n , et la suite u est parfois notée (u n )n∈A . Si la partie A est finie, on dit
que la suite u est une suite finie. L’ensemble des suites réelles définies sur A est donc l’ensemble des
applications de A vers R, c’est à dire F (A, R).
Remarque 9.1 – On prendra garde à ne pas confondre u n qui est un réel (terme de rang n) avec (u n )n∈A qui
désigne la suite u. Les suites finies présentant peu d’intérêt, on étudiera seulement le cas où A est une partie
infinie de N. On peut alors montrer qu’il est toujours possible de se ramener au cas où A = N, si bien que dans
NE
la suite de ce chapitre on étudiera F (N, R) l’ensemble des suites réelles définies sur N.
ZExemples :
– Une suite u est arithmétique si et seulement si il existe un réel r (appelé raison), tel que ∀ n ∈
N, u n+1 = u n +r . On a alors les formules suivantes : ∀ n, p ∈ N, u n = u p +(n −p)r. La somme de n termes
n(p+d )
consécutifs est S = 2 où p désigne le premier terme, et d le dernier.
– Une suite u est géométrique si et seulement si il existe q ∈ R (appelé raison), tel que ∀ n ∈ N, u n+1 =
qu n . On a alors les formules suivantes : ∀ n, p ∈ N, u n = u p q n−p . La somme de n termes consécutifs est
npsi q = 1
S = p − qd , où p désigne le premier terme, d le dernier et q la raison.
si q 6= 1
1−q
– Suites récurrentes à un pas : ce sont les suites u définies par : u 0 ∈ R et ∀ n ∈ N, u n+1 = f (u n ), où
AIG
f : I → R est une fonction donnée. Par exemple : u 0 = 12 et u n+1 = u n2 . Dans le plan, à l’aide de la courbe
représentative de f et de la première bissectrice, on peut construire géométriquement les termes de la
suite sur l’axe des abscisses.
– Suites récurrentes à deux pas : par exemple la suite de Fibonacci 1 qui est définie par : u 0 = u 1 = 1 et
∀ n ∈ N, u n+2 = u n+1 + u n .
2) Vocabulaire
– Sens de variation : soit u une suite réelle et p un entier, on dit que la suite u est :
• croissante à partir du rang p lorsque : ∀ n > p, u n 6 u n+1 .
• strictement croissante à partir du rang p lorsque : ∀ n > p, u n < u n+1 .
• décroissante à partir du rang p lorsque : ∀ n > p, u n+1 6 u n .
• strictement décroissante à partir du rang p lorsque : ∀ n > p, u n+1 < u n .
• constante (ou stationnaire) à partir du rang p lorsque : ∀ n > p, u n+1 = u n .
NT
• monotone lorsque u est croissante ou bien décroissante.
• strictement monotone lorsque u est strictement croissante ou bien strictement décroissante.
Remarque 9.2 – Étudier le sens de variation de u peut se faire en étudiant le signe de u n+1 − u n , ou
encore le signe de f (u n+1 ) − f (u n ) où f désigne une fonction monotone.
– Suite bornée : on dit qu’une suite réelle u est :
• majorée lorsque : ∃ M ∈ R, ∀ n ∈ N, u n 6 M.
• minorée lorsque : ∃ m ∈ R, ∀ n ∈ N, m 6 u n .
• bornée lorsque : ∃ m, M ∈ R, ∀ n ∈ N, m 6 u n 6 M (i.e. minorée et majorée).
Remarque 9.3 – Une suite u est bornée si et seulement si il existe un réel M positif tel que ∀ n ∈ N, |u n | 6
M.
Par exemple, la suite (u n = sin(n)) est bornée, la suite (v n = n 2 ) est minorée mais non majorée, la suite
MO
NE
– v1 : si v ne s’annule pas à partir d’un certain rang n 0 , en posant : ( v1 )n = v1n .
On vérifie alors que :
– (F (N, R), +) est un groupe abélien. Son élément neutre est la suite nulle (notée 0) et l’opposé d’une
suite u est la suite (−u n )n∈N (notée −u).
– La multiplication est associative, commutative, admet comme élément neutre la suite constante
(u n = 1)n∈N (notée 1), et elle est distributive sur l’addition. Mais il y a des suites non nulles qui n’ont
pas d’inverse, par exemple la suite u définie par u n = 1 + (−1)n . Seules les suites u qui ne s’annulent
jamais ont un inverse, et cet inverse est la suite u1 .
L’ensemble (F (N, R), +, ×) n’est donc pas un corps, mais seulement un anneau commutatif. Les deux
suites u et v définies par u n = 1 + (−1)n et v n = 1 − (−1)n sont non nulles, mais leur produit est la suite nulle,
ceci prouve que (F (N, R), +, ×) est un anneau non intègre.
AIG
II SUITES CONVERGENTES
1) Définition
Définition 9.2
Soit u une suite réelle et ` ∈ R, on dit que u admet comme limite ` lorsque u n peut être aussi proche
(ou voisin) que l’on veut de ` pourvu que n soit assez grand, c’est à dire :
Remarque 9.4 –
NT
– Comme |u n − `| = |(u n − `) − 0| = ||u n − `| − 0|, on a :
Définition 9.3
Lorsque la suite u admet une limite finie, on dit que u est convergente, sinon on dit qu’elle est
MO
divergente.
ZExemples :
– Toute suite stationnaire (à partir d’un certain rang) est convergente.
– Soit x ∈ R et v n = bnxc : on a v n → x. Soit ε > 0, |v n − x| = nx−bnxc < n1 < ε ⇐⇒ n > 1ε , il suffit donc de
¥ 1 ¦n n
prendre N = 1 + ε pour avoir : n > N =⇒ |v n − x| < ε.
– u n = q n avec q = 1 : la suite est constante et u n → 1.
1 1
– u n = q n avec |q| < 1 et q 6= 0 : alors q n → 0. Soit ε > 0, comme |q| > 1, on a |q| = 1 + p avec p > 0, on
peut montrer alors que ∀n ∈ N, |q|1 n > 1 + np (récurrence ou binôme de Newton), on a |q|1 n > 1ε dès que
j k
1 + np > 1ε c’est à dire dès que n > N = 1 + pε1
− p1 , donc n > N =⇒ |q n | < ε.
– u n = (−1)n alors la suite est divergente (2-périodique). Supposons qu’elle ait une limite finie ` alors à
partir d’un certain rang N on aura |u n − `| < 13 par conséquent les valeurs −1 et 1 sont dans l’intervalle
]` − 13 ; ` + 13 [ ce qui est absurde.
FExercice 9.1 Montrer qu’une suite d’entiers convergente est stationnaire.
2) Premières propriétés
Soit u une suite réelle :
NE
– Si u admet une limite ` ∈ R, alors celle - ci est unique.
Preuve : Supposons u n → ` et u n → `0 avec ` 6= `0 , Soit α ∈]`; `0 [, ε = α − ` et ε0 = `0 − α, alors à partir d’un certain
rang N on a |u n − `| < ε, ce qui donne u n < α, et à partir d’un certain rang N0 on a |u n − `0 | < ε0 , ce qui donne
α < u n , donc à partir de max(N, N0 ) on a une contradiction, donc ` = `0 .
On a démontré au passage :
– Si u converge vers ` et si α < `, alors à partir d’un certain rang α < u n . De même, si α > `, alors à partir
d’un certain rang on a α > u n .
– Si u est convergente, alors u est bornée (la réciproque est fausse).
Preuve : Si u n → ` ∈ R, il existe un entier N tel que n > N =⇒ |u n − `| < 1, ce qui entraîne |u n | < |`| + 1. On a alors
pour tout entier n : |u n | 6 max(|u 0 |, . . . , |u N |, 1 + |`|). Pour voir que la réciproque est fausse, on peut considérer la
suite u définie par u n = (−1)n , elle est bornée mais non convergente.
Conséquence : la suite (q n ) avec |q| > 1 est divergente car non bornée, en effet : |q| = 1 + p avec p > 0
AIG
donc |q n | > 1 + np qui peut être aussi grand que l’on veut.
– Si u converge vers `, alors toutes les suites extraites de u convergent vers `.
Preuve : Soit v n = u σ(n) une suite extraite de u et supposons u n → ` ∈ R. Soit W un voisinage de `, il existe un
entier N tel que n > N =⇒ u n ∈ W. Mais σ étant strictement croissante, on a ∀n ∈ N, n 6 σ(n), donc n > N =⇒
σ(n) > N, mais alors u σ(n) ∈ W, c’est à dire n > N =⇒ v n ∈ W et donc v n → `.
Remarque 9.5 – Cette propriété est souvent utilisée pour montrer qu’une suite u n’a pas de limite. Soit
en trouvant une suite extraite qui diverge, soit en trouvant deux suites extraites qui ne convergent pas
vers la même limite. Par exemple : u n = cos((n + n1 )π).
– Si lim u 2n = lim u 2n+1 = ` ∈ R, alors lim u = `.
Preuve : Soit ε > 0, il existe un entier N1 tel que k > N1 =⇒ |u 2k − `| < ε, de même il existe un entier N2 tel que
k > N2 =⇒ |u 2k+1 − `| < ε. Posons N = max(2N1 , 2N2 + 1), si n > N alors lorsque n = 2k on a k > N1 et donc
|u n − `| < ε, lorsque n = 2k + 1 on a k > N2 et donc |u n − `| < ε, finalement dès que n > N on a |u n − `| < ε et donc
u n → `.
NT
3) Convergence et opérations
Théorème 9.1
Soient u et v deux suites qui convergent respectivement vers ` et `0 , et soit λ ∈ R alors :
– (u n + v n ) converge vers ` + `0 .
– (λu n ) converge vers λ`.
Preuve : Soit ε > 0, il existe un entier N à partir duquel on a |u n − `| < ε/2 et |v n − `0 | < ε/2, mais alors on a |u n + v n − (` +
`0 )| 6 |u n − `| + |v n − `0 | < ε, donc u n + v n → ` + `0 .
ε
Soit λ 6= 0, et soit ε > 0, à partir d’un certain rang on a |u n − `| < |λ| d’où |λu n − λ`| < ε.
MO
Théorème 9.2
Si (u n ) converge vers ` et (v n ) vers `0 alors :
– (u n v n ) converge vers ``0 .
– Si ` 6= 0, alors à partir d’un certain rang la suite les termes u n sont non nuls et la suite ( u1n ) converge
vers 1` .
Preuve : |u n v n − ``0 | = |(u n − `)v n + `(v n − `0 )| 6 |u n − `||v n | + |`||v n − `0 |, mais la suite v est bornée donc il existe un réel
M strictement positif tel que |v n | 6 M et donc |u n v n − ``0 | < |u n − `|M + |`||v n − `0 |, mais d’après le théorème précédent
la deuxième suite tend vers 0, donc u n v n → ``0 .
La suite (|u n |) converge vers |`| > 0 donc à partir d’un certain rang on a |u n | > |`| 2 > 0, donc u n 6= 0 et alors :
|`−u n | 2|`−u n |
| u1n − 1` | = |`u n | < `2
, or cette deuxième suite tend vers 0, donc u1n → 1` .
Théorème 9.3
Soient u, v et w trois suites réelles. Si u converge vers `, v converge vers `0 , et si à partir d’un certain
NE
rang on a u n 6 v n , alors ` 6 `0 (c’est le théorème du passage à la limite).
Preuve : Supposons ` > `0 , alors il existe α ∈]`0 , `[ donc à partir d’un certain rang on doit avoir u n > α et v n < α ce qui est
contradictoire, donc ` 6 `0 .
Remarque 9.6 – Pour le passage à la limite on peut avoir u n < v n et ` = `0 , par exemple en prenant u n = 1 − n1
et v n = 1 + n1 , donc dans un passage à la limite les inégalités deviennent larges.
Théorème 9.4
Soient u, v et w trois suites réelles. Si u et v convergent vers ` et si à partir d’un certain rang on a
u n 6 w n 6 v n , alors w converge vers ` (c’est le théorème des gendarmes ou de l’étau).
AIG
Preuve : Soit ε > 0, il existe un entier N à partir duquel on a u n 6 w n 6 v n avec u n , v n ∈]`−ε, `+ε[, donc w n ∈]`−ε, `+ε[
à partir du rang N, donc w n → `.
Théorème 9.5
Soient u et v deux suites réelles. Si u converge vers 0 et si v est bornée, alors lim u × v = 0.
Preuve : Il existe un réel positif M tel que |v n | 6 M pour tout n, d’où |u n v n | 6 M|u n |, c’est à dire −M|u n | 6 u n v n 6 M|u n |,
on peut donc conclure que u n v n → 0.
Déterminer la limite des suites (si elle existe) :
ZExemples :
n p
sin(n) n P 1p
– an = n b n = 2n+(−1) n cn = dn = n − n
k=1 n+ k
n 3 −1
p ¢n
g n = 1 + n1
¡
fn = n2 + n + 1 − n
NT
– en = n 2 +1
5) Caractérisations séquentielles
1 1
Preuve : Si M = sup A, alors pour tout n ∈ N, ∃a n ∈ A tel que M − n+1 < a n car M − n+1 ne majore pas A, la suite (a n )
1
ainsi construite converge vers M car M − n+1 < a n 6 M.
Si M majore A et qu’il existe une suite (a n ) de A qui converge vers M, alors pour tout ε > 0, à partir d’un certain rang
MO
1) Définition
Définition 9.4
Soit u une suite réelle :
NE
– on dit que u admet comme limite +∞ lorsque u n peut être aussi grand que l’on veut pourvu que n
soit assez grand, c’est à dire : ∀ A ∈ R, ∃ N ∈ N, ∀ n ∈ N, n > N =⇒ u n > A.
Notation : lim u = +∞ ou lim u n = +∞ ou u n → +∞.
– on dit que u admet comme limite −∞ lorsque u n peut être aussi petit que l’on veut pourvu que n
soit assez grand, c’est à dire : ∀ A ∈ R, ∃ N ∈ N, ∀ n ∈ N, n > N =⇒ u n < A.
Notation : lim u = −∞ ou lim u n = −∞ ou u n → −∞.
Remarque 9.7 –
– Si u n → +∞ alors u n’est pas majorée.
– Si u n → −∞ alors u n’est pas minorée.
– On a l’équivalence : lim u n = −∞ ⇐⇒ lim −u n = +∞.
AIG
ZExemple : Si q > 1 alors lim q n = +∞.
Comme pour les suites convergentes, on peut montrer :
– Si u admet une limite infinie, alors toutes les suites extraites de u ont la même limite que u.
– Si u 2n → +∞ et u 2n+1 → +∞, alors u n → +∞.
Théorème 9.8
Soient u et v deux suites réelles :
– Si lim u = +∞ et si à partir d’un certain rang on a u n 6 v n , alors lim v = +∞.
– Si lim v = −∞ et si u n 6 v n à partir d’un certain rang, alors lim u = −∞.
– Si lim u = +∞ (respectivement −∞) et si v est minorée (respectivement majorée), alors lim u + v =
+∞ (respectivement −∞).
NT
Preuve : Pour le premier point : il existe un entier N1 à partir duquel on a u n 6 v n , soit A un réel, il existe un entier N2 à
partir duquel on a A < u n , donc si n > max(N1 , N2 ) alors A < v n , donc v n → +∞.
Pour le deuxième point : on peut appliquer le précédent aux suites −u et −v.
Pour le troisième point : supposons u n → +∞ et v minorée par un réel m, alors pour tout entier n on a m + u n 6
u n + v n , or la suite (m + u n ) tend vers +∞, on peut donc appliquer le premier point, i.e. u n + v n → +∞. Dans l’autre cas
on peut raisonner sur les suites −u et −v.
Théorème 9.9
Soient u et v deux suites de limites respectives ` et `0 dans R, et soit λ ∈ R.
MO
tend vers 1` si ` ∈ R∗
si ` = ±∞
tend vers 0
tend vers + ∞ si ` = 0 et u > 0 .
si ` = 0 et u < 0
tend vers − ∞
n’a pas de limite dans les autres cas
Preuve : Pour la somme : prenons par exemple le cas ` ∈ R et `0 = +∞, la suite u n est minorée par un certain réel m (car
convergente) d’après le paragraphe précédent, u n + v n → +∞. Les autres cas non indéterminés se ramènent à celui-ci.
Pour la forme indéterminée, on peut considérer les exemples suivants : (n + (−n + a)) qui converge, (n + (− n2 )) qui tend
NE
vers +∞, (n + (−2n)) qui tend vers −∞, et (n + (−n + (−1)n )) qui n’a pas de limite.
Pour λu : il suffit de considérer le cas λ > 0 et u n → +∞ (laissé en exercice). Les autres cas se ramènent à celui-ci.
Pour le produit : prenons par exemple le cas où ` est un réel strictement positif et `0 = +∞, alors à partir d’un
0 0 0
certain rang, on a v n > 0 et u n > `2 >0, d’où u n v n > v n `2 , or v n `2 tend vers +∞, et donc u n v n aussi. Les autres cas non
indéterminés se ramènent à celui-ci. Pour la forme indéterminée, on peut considérer les exemples suivants : ( n1 × na )
p n
qui converge, ( n1 × p1n ) qui tend vers +∞, ( n1 × −11 n) qui tend vers −∞, et ( n1 × (−1) n ) qui n’a pas de limite.
1
Pour l’inverse : supposons que ` = 0 et u > 0, soit A un réel et ε = 1+|A| , il existe un entier N à partir duquel on
1 1 1
a |u n | < ε, c’est à dire en fait, 0 < u n < ε et donc A < 1 + |A| = ε < un , par conséquent u n → +∞. Les autres cas non
(−1)n n
indéterminés se ramènent à celui-ci. Pour terminer prenons la suite u n = n , son inverse est la suite ((−1) n) et cette
suite n’a pas de limite (distinguer les termes de rangs pairs et les termes de rangs impairs).
AIG
IV THÉORÈMES D’EXISTENCE D’UNE LIMITE
1) Suites monotones
Théorème 9.10
Si u est une suite croissante majorée (respectivement décroissante minorée), alors (u n ) converge vers
sup u n (respectivement vers inf u n ).
n∈N n∈N
Si u est une suite croissante non majorée (respectivement décroissante non minorée), alors (u n ) tend
vers +∞ (respectivement vers −∞).
Preuve : Supposons u croissante majorée, soit ` = sup u n , et soit ε > 0, alors il existe un entier N tel que u N > ` − ε (car
n∈N
` − ε ne majore pas la suite). Si n > N alors, la suite étant croissante, ` − ε < u N 6 u n 6 ` < ` + ε et donc |u n − `| < ε, ce
qui prouve que u n → `.
NT
Lorsque u est croissante non majorée : soit A un réel, alors il existe un entier N tel que u N > A (A ne majore pas la
suite), si n > N alors A < u N 6 u n , donc u n → +∞.
Conséquences :
a) Si (u n ) est croissante majorée, alors u n → ` = sup u n ∈ R et donc ∀ n ∈ N, u n 6 `. En fait si u est
strictement croissante, alors ∀ n ∈ N, u n < ` (car s’il y avait l’égalité au rang N, alors la suite serait
constante à partir de l’indice N).
b) Si (u n ) est décroissante minorée, alors u n → ` = inf u n ∈ R et donc ∀ n ∈ N, u n > `. En fait si u est
strictement décroissante, alors ∀ n ∈ N, u n > ` (car s’il y avait l’égalité au rang N, alors la suite serait
constante à partir de l’indice N).
c) Une suite monotone est donc convergente si et seulement si elle est bornée.
ZExemples :
MO
n
P 1
– Soit u la suite définie par : u n = k2
. Cette suite est croissante (u n+1 − u n > 0), en remarquant que
k=1
< 2, la suite u est donc convergente (de limite π6 ).
2
pour k > 2 on a k12 < k(k−1)
1
= 1
k − 1
k−1 , on voit que u n
– Soit v la suite définie par v 0 = 1 et ∀ n ∈ N, v n+1 = sin(v n ). Il s’agit d’une suite récurrente, la représenta-
tion graphique des premiers termes suggère que la suite est décroissante minorée par 0, ce qui est facile
à vérifier par récurrence. La suite v est donc convergente de limite `, la fonction sinus étant continue,
on a sin(v n ) → sin(`), c’est à dire v n+1 → sin(`), donc ` = sin(`). L’étude de la fonction x 7→ sin(x) − x
montre que l’unique solution de sin(x) = x est 0, donc ` = 0, i.e. v n → 0
2) Suites adjacentes
Définition 9.5
Soient u et v deux suites, on dit qu’elles sont adjacentes lorsque l’une est croissante, l’autre décrois-
sante et lim u n − v n = 0.
NE
n
1 1
ZExemple : Soient u et v les suites définies par : u n =
P
k! et v n = u n + n×n! , ces deux suites sont adjacentes.
k=0
Théorème 9.11
Deux suites adjacentes sont nécessairement convergentes et convergent vers la même limite.
3)
b 1 − a 1 = b−a
AIG
Le théorème de BOLZANO - WEIERSTRASS
Preuve : On applique le principe de dichotomie : il existe a 0 < b 0 deux réels tels que ∀ n ∈ N, u n ∈ [a 0 ; b 0 ]. On pose
I0 = [a 0 ; b 0 ] et σ(0) = 0. On coupe cet intervalle en deux, soit I00 = [a 0 ; a0 +b
0 00
0 00 a 0 +b 0
2 ] et I0 = [ 2 ; b 0 ], si {n ∈ N / u n ∈ I0 }
est infini alors on pose I1 = I0 , sinon on pose I1 = I0 . On alors un nouveau segment I1 = [a 1 ; b 1 ] inclus dans I0 avec
2 et {n ∈ N / u n ∈ I1 } infini. On peut donc choisir n 1 > 0 tel que u n 1 ∈ I1 , on pose σ(1) = n 1 . On recommence
de la même façon avec I1 ...
0
On construit ainsi une suite de segments In = [a n ; b n ], emboîtés (In+1 ⊂ In ), tels que b n − a n = b−a 2n , et une applica-
tion σ : N → N strictement croissante telles que pour tout n, et u σ(n) ∈ In , c’est à dire a n 6 u σ(n) 6 b n . Or les suites (a n )
NT
et (b n ) sont adjacentes, elles convergent donc vers une même limite `, et donc par le théorème des gendarmes, on a
u σ(n) → ` : on a donc construit une suite extraite convergente.
1) Définitions
Définition 9.6
Soient (u n ), (v n ) et (εn ) trois suites telles qu’à partir d’un certain rang u n = v n εn . On dit que :
– u n est dominée par v n lorsque la suite (εn ) est bornée. Notation : u n = O(v n ).
– u n est négligeable devant v n lorsque εn → 0. Notation : u n = o(v n ).
MO
Remarque 9.8 –
– u n = O(1) signifie que la suite (u n ) est bornée [donc O(v n ) = v n × O(1)].
NE
– u n = o(1) signifie que u n → 0 [donc o(v n ) = v n × o(1)].
– Si u n = o(v n ) alors u n = O(v n ).
– Si u n ∼ v n alors u n = O(v n ).
– Si u n = o(v n ) et v n = o(w n ), alors u n = o(w n ) (transitivité).
– Si u n = O(v n ) et v n = O(w n ), alors u n = O(w n ) (transitivité).
– u n ∼ v n ⇐⇒ u n − v n = o(v n ).
Théorème 9.14
La relation « ... est équivalente à ... » est une relation d’équivalence dans F (N, R), c’est à dire qu’elle
est réflexive, symétrique et transitive. De plus :
– Si ` ∈ R et si u n ∼ ` alors u n → ` (réciproque vraie lorsque ` ∈ R∗ ).
AIG
– Si u n = o(v n ) alors u n + v n ∼ v n .
Preuve : Si f est une fonction dérivable en 0, alors il existe une fonction ε de limite nulle en 0 telle que : f (x) − f (0) =
ε(u n )
x f 0 (0) + xε(x), si f 0 (0) 6= 0 alors pour n assez grand on aura f (u n ) − f (0) = u n f 0 (0)[1 + f 0 (0) ], ce qui entraîne que
f (u n ) − f (0) ∼ u n f 0 (0) car u n → 0.
3) Propriétés
Théorème 9.17
Soient u et v deux suites,
NE
– Si u n ∼ v n et si lim v n = ` ∈ R, alors lim u n = `.
– Si u n ∼ v n et si a n ∼ b n , alors u n a n ∼ v n b n (compatibilité avec la multiplication).
– Si u n ∼ v n et si v ne s’annule pas à partir d’un certain rang, alors u1n ∼ v1n (compatibilité avec le
passage à l’inverse).
Attention !
Il n’y a pas compatibilité avec l’addition en général, par exemple : n + sin( n1 ) ∼ n et −n ∼ 1 − n, mais sin( n1 ) n’est
pas équivalent à 1.
Ces propriétés sont utiles pour les calculs de limites qui ne peuvent pas être faits directement : on essaie de se
ramener à un équivalent plus simple (s’il y en a ...) dont on sait calculer la limite.
AIG
ZExemples :
– Soit u n =
– Soit u n =
n
p
n 2 − n − n, alors u n = n[(1 − 1/n)1/2 − 1] ∼ n[ −1
n 2 −e n
n!+n 4
,
u n ∼ − en! , mais e n = o(n!), donc u n → 0.
2) Convergence
Définition 9.7
Soit u une suite complexe, et soit ` un complexe. On dira que la suite u converge vers ` lorsque la
suite (|u n − `|)n∈N tend vers 0, c’est à dire :
∀ε > 0, ∃N ∈ N, ∀n ∈ N, n > N =⇒ |u n − `| < ε.
i nθ
ZExemple : Soit u n = e n , alors |u n | = n1 → 0 donc u converge vers 0.
NE
3) Propriétés
Théorème 9.19
Soit u une suite complexe et ` un complexe, alors la suite u converge vers ` si et seulement si la suite
(Re(u n )) converge vers Re(`) et la suite (Im(u n )) converge vers Im(`).
AIG
convergentes en raisonnant sur les parties réelles et imaginaires :
– Toute suite convergente est bornée.
– Si u converge vers ` ∈ C, alors toute suite extraite de u converge vers `.
– Si u converge vers ` ∈ C et v converge vers `0 ∈ C, alors u + v → ` + `0 , uv → ``0 et ∀ λ ∈ C, λu → λ`.
– Si u → ` ∈ C∗ , alors à partir d’un certain rang u n 6= 0 et u1 → 1` .
– Si u converge vers ` ∈ C, alors la suite u converge vers ` et la suite |u| converge vers |`|.
– Si u est bornée alors on peut en extraire une suite convergente (Bolzano - Weierstrass).
Remarque 9.9 – Si u n → ` dans C, et si u est à valeurs réelles, alors la suite (b n ) est la suite nulle, or b n → Im(`),
donc Im(`) = 0, c’est à dire ` ∈ R.
FExercice 9.2 Étude de la suite (u n = e i nθ ).
Solution 9.2 C’est une suite géométrique de raison e i θ . Si θ = 0 (2π), alors la suite est constante égale à 1, donc u n → 1.
Si θ 6= 0 (2π), supposons que u n → ` ∈ C, alors |u n | → |`|, or |u n | = 1, donc |`| = 1. D’autre part, u n+1 = e i θ u n , par passage
à la limite, on a ` = `e i θ , or ` 6= 0 (car |`| = 1), donc e i θ = 1 ce qui est absurde, par conséquent si θ 6= 0 (2π), la suite (u n )
NT
est divergente.
MO
Arithmétique
AIG
Sommaire
I Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1) La propriété fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2) La division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3) Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4) Diviseurs communs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
II Éléments premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
1) Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2) Conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
III Le plus grand diviseur commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3) Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
IV Le plus petit multiple commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
NT
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
V Nombres premiers, décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
2) Décomposition en facteurs premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3) Notion de valuation p-adique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
I DIVISIBILITÉ
1) La propriété fondamentale
MO
Théorème 10.1
Toute partie de Z non vide et minorée admet un plus petit élément.
Preuve : Soit A une partie de Z non vide et minorée par un entier n 0 . Soit M l’ensemble des minorants de A, on a n 0 ∈ M,
supposons que n ∈ M =⇒ n +1 ∈ M, alors d’après le principe de récurrence, ∀ n ∈ Z, n > n 0 =⇒ n ∈ M. Soit p ∈ A, p > n 0 ,
donc p + 1 ∈ M ce qui entraîne que p + 1 6 p : absurde, donc il existe un entier n 1 tel que n 1 ∈ M et n 1 + 1 ∉ M, mais
alors il existe un élément p 1 de A tel que p 1 < n 1 + 1, d’où n 1 6 p 1 < n 1 + 1, ce qui entraîne p 1 = n 1 , et donc n 1 ∈ A,
nécessairement n 1 est le plus petit élément de A.
À retenir
• Toute partie non vide et majorée de Z admet un plus grand élément. En effet, si A est non vide
majorée, alors −A = {−a / a ∈ A} est non vide minorée, donc −A admet un plus petit élément −n 0 , ce
qui signifie que n 0 est le plus grand élément de A.
• Toute partie non vide de N admet un plus petit élément (propriété fondamentale de N). En effet,
une partie non vide de N est une partie non vide de Z minorée par 0.
NE
2) La division euclidienne
Théorème 10.2
Soient a ∈ Z et b ∈ Z∗ , il existe un unique couple d’entiers (q, r ) tel que a = bq + r avec 0 6 r < |b|, q
est appelé le quotient, et r le reste.
Preuve : Supposons b > 0 : soit B = {b(n + 1) / n ∈ Z}, alors B est non majoré et non minoré, donc il existe un entier n 1
tel que a < b(n 1 + 1) et il existe un entier n 2 tel que b(n 2 + 1) < a. Soit A = {n ∈ Z / a < b(n + 1)}, alors A est non vide
(n 1 ∈ A) et minoré par n 2 , donc A admet un plus petit élément q, d’où bq 6 a < b(q + 1), en posant r = a − bq, on a
a = bq + r et 0 6 r < b = |b|.
Supposons b < 0 : on applique ce qui précède à −b > 0, il existe un entier q et un entier r tels que a = (−b)q + r =
AIG
b(−q) + r avec 0 6 r < −b = |b|.
Montrons l’unicité : si a = bq + r = bq 0 + r 0 avec 0 6 r < |b| et 0 6 r 0 < |b|, alors |r − r 0 | = |bq 0 − bq| = |b||q 0 − q| < |b|,
d’où q 0 = q (ce sont des entiers) et donc r 0 = r .
Définition 10.1
Soient a, b ∈ Z, on dit que b divise a lorsqu’il existe k ∈ Z tel que a = bk. Notation : b|a.
Remarque 10.1 – On a ainsi défini une relation dans Z, elle est réflexive, non symétrique, non antisymétrique,
et transitive.
Théorème 10.3
Soient a, b ∈ Z avec b 6= 0, alors b|a ssi le reste dans la division euclidienne de a par b est nul.
NT
Preuve : Celle-ci est simple et laissée en exercice.
Notation : Soit n ∈ Z, on note n Z l’ensemble des multiples de n : n Z = {kn / k ∈ Z}.
On vérifie facilement la propriété suivante :
(a Z, +) est un groupe commutatif et ∀b ∈ Z, ∀u ∈ a Z, bu ∈ a Z. On dit que a Z est un idéal de Z.
FExercice 10.1 Montrer que aZ + bZ et (aZ) ∩ (bZ) sont également des idéaux de Z.
Théorème 10.4
• b | a ⇐⇒ a ∈ b Z.
• Si a 6= 0, alors b | a =⇒ |b| 6 |a|.
• (a | b et b | a) ⇐⇒ a Z = b Z ⇐⇒ a = λb avec λ = ±1 [on dit que a et b sont associés].
• Si b | a et b | c alors ∀ u, v ∈ Z, b | au + c v.
• Si nb | na et si n 6= 0, alors b | a.
MO
3) Congruences
Théorème 10.5
• La relation de congruence modulo n est une relation d’équivalence.
• Soient a, b, c, d , n ∈ Z, si a ≡ b (mod n) et c ≡ d (mod n) alors :
ac ≡ bd (mod n) et a + c ≡ b + d (mod n).
On dit que la relation de congruence est compatible avec les opérations.
NE
ZExemple : Dans Z, si n = a0 + 10a1 + · · · + 10p a p (écriture décimale) alors n ≡ a0 + · · · + a p (mod 3) car 10k ≡ 1
(mod 3)
4) Diviseurs communs
Remarque 10.2 –
AIG
– Pour tout élément a ∈ Z, ±1 | a.
– Si a 6= 0, alors Da est un ensemble fini, plus précisément Db ⊂ J−|a|; |a|K.
– D0 = Z, D±1 = {±1}.
– Si a et b sont non nuls : Da = D|a| (on en déduit que Da,b = D|a|,|b| ).
Théorème 10.6
Soient a, b, q, r ∈ Z, si a = bq + r , alors Da,b = Db,r .
La suite des restes obtenus est une suite strictement décroissante d’entiers positifs, elle est donc néces-
sairement finie, i.e. il existe un entier n > 1 tel que r n = 0, l’ensemble cherché est donc D = Dr n−1 (avec la
MO
convention r 0 = b).
À retenir
Da,b est l’ensemble des diviseurs du dernier reste non nul.
1. EUCLIDE (300 av. J.C. – 275 av. J.C. environ) : on ne sait pratiquement rien de sa vie, il était vraisemblablement grec. Son
œuvre est colossale et son ouvrage fondamental « Les éléments » regroupe toutes les connaissances de l’époque, il faudra près de
vingt siècles pour dépasser son œuvre.
NE
– on effectue la division de 126 par 84 : 126 = 1 × 84 + 42, donc Da,b = D84,42 .
– on effectue la division de 84 par 42 : 84 = 2 × 42 + 0, donc Da,b = D42,0 = D42 , c’est à dire :
1) Théorème de Bézout
Définition 10.4
Soient a, b ∈ Z, on dit que a et b sont premiers entre eux (ou a est premier avec b) lorsque le seul
AIG
diviseur commun positif est 1, i.e. Da,b = {±1}.
Remarque 10.3 –
– Dire que a est premier avec b revient à dire que le dernier reste non nul dans l’algorithme d’Euclide est 1.
– Si a est premier avec b, alors au moins un des deux est non nul (sinon l’ensemble des diviseurs communs
est Z).
– a est premier avec a si et seulement si a ± 1.
2) Conséquences
Théorème 10.8
Si a est premier avec b et si a est premier avec c, alors a est premier avec le produit bc. On en déduit
que si a est premier avec c 1 , . . . , c n , alors a est premier avec le produit c 1 × . . . × c n .
MO
Preuve : Il existe u, v ∈ Z tels que au + bv = 1, il existe p, q ∈ Z tels que ap + c q = 1. On effectue le produit de ces deux
relations, ce qui donne a(uc q + uap + pbv) + bc(v q) = 1, d’après le théorème de Bézout, a et bc sont premiers entre
eux. Une simple récurrence sur n permet de démontrer la généralisation.
Théorème 10.9
Si a est premier avec c, si a | b et si c | b, alors ac | b.
Preuve : Il existe u, v ∈ Z tels que au + c v = 1, on multiplie par b, ce qui donne : bau + bc v = b, or c | b donc ac | bau, et
a | b donc ac | bc v, ce qui entraîne ac | bau + bc v i.e. ac | b.
Remarquons que ce théorème est faux lorsque a et c ne sont pas premiers entre eux, par exemple : 2 | 12 et 4 | 12
mais 2 × 4 = 8 6 |12.
2. BÉZOUT Étienne(1730 – 1783) : mathématicien français, l’un des précurseurs de la géométrie algébrique.
NE
Preuve : Il existe u, v ∈ Z tels que au+c v = 1, on multiplie par b, ce qui donne bau+bvc = b, or a | bc donc a | bau+bc v,
i.e. a | b.
FExercice 10.2 Résoudre dans Z l’équation 17x + 12y = 3.
Solution 10.2 a = 17 et b = 12 sont premiers entre eux : a = b × 1 + 5 d’où r 1 = 5 = a − b
b = r 1 × 2 + 2, d’où r 2 = 2 = b − 2r 1 = b − 2(a − b) = −2a + 3b
r 1 = r 2 × 2 + 1, d’où r 3 = 1 = r 1 − 2r 2 = a − b + 4a − 6b = 5a − 7b
On a ainsi une relation de Bézout entre a et b, on en déduit une solution particulière en multipliant par 3 : 15a −21b = 3,
donc (x 0 = 15, y 0 = −21) est une solution particulière. L’équation équivaut alors à a(x − x 0 ) = b(y 0 − y), d’après le
théorème de Gauss, a et b étant premiers entre eux, on a b | x − x 0 et a | y 0 − y, i.e. x = x 0 + bk et y = y 0 − bk 0 , en
reportant dans la relation on voit que k = k 0 et donc les solutions sont les couples : (x 0 + bk, y 0 − ak) avec k ∈ Z.
AIG
III LE PLUS GRAND DIVISEUR COMMUN
1) Définition
Soient a, b ∈ Z non tous deux nuls (i.e. a 6= 0 ou b 6= 0), on sait que Da,b = Dr où r est le dernier reste non
nul dans l’algorithme d’Euclide, on voit que les diviseurs communs à a et b ont une valeur absolue inférieure
ou égale à celle de r et donc r est le plus grand diviseur commun.
Définition 10.5
Soient a, b ∈ Z non tous deux nuls, on appelle pgcd de a et de b le plus grand diviseur commun.
Notation : pgcd(a, b) ou a ∧ b, c’est le dernier reste non nul dans l’algorithme d’Euclide.
NT
Remarque 10.4 – Il en découle que deux éléments a et b de Z, non tous deux nuls, sont premiers entre eux si et
seulement si pgcd(a, b) = 1.
Théorème 10.11
Soient a, b ∈ Z non tous deux nuls, et d = pgcd(a, b), alors d est l’unique élément positif dans Z tel
que a Z + b Z = d Z.
Preuve : Unicité : si d Z = d 0 Z alors d et d 0 sont associés, mais comme ils sont positifs, on a d = d 0 .
Égalité : dans l’algorithme d’Euclide étendu, il existe u et v dans Z tel que au + bv = d , ce qui entraine que
d Z ⊂ aZ + bZ. Si r ∈ aZ + bZ, alors d est diviseur de r donc aZ + bZ ⊂ d Z, d’où l’égalité.
MO
Preuve : Soit r = a − bq, on a a = bq + r et on sait alors que Da,b = Db,r , le résultat en découle.
L’algorithme d’Euclide s’écrit ainsi en python pour a et b positifs :
1 def pgcd(a,b):
2 A=a
3 B=b
4 R=b
5 while R!=0:
6 R=A%B
7 A=B
8 B=R
9 return A #dernier reste non nul
FExercice 10.3
NE
ZExemple : Soit à calculer d = pgcd(3282, 1281) :
– 3282 = 2 × 1281 + 720, donc d = pgcd(1281, 720),
– 1281 = 1 × 720 + 561, donc d = pgcd(720, 561),
– 720 = 1 × 561 + 159, donc d = pgcd(561, 159),
– 561 = 3 × 159 + 84, donc d = pgcd(159, 84),
– 159 = 1 × 84 + 75, donc d = pgcd(84, 75),
– 84 = 1 × 75 + 9, donc d = pgcd(75, 9),
– 75 = 8 × 9 + 3, donc d = pgcd(9, 3),
– 9 = 3 × 3 + 0, donc d = 3.
2) Propriétés
AIG
Théorème 10.13 (caractérisations du pgcd)
Soient a, b ∈ Z non tous deux nuls, et soit d ∈ N∗ . On a alors :
d = pgcd(a, b) ⇐⇒ ∃ u, v ∈ Z premiers entre eux tels que a = d u et b = d v.
Preuve : Si d = pgcd(a, b) alors il existe u, v ∈ Z tels que a = d u et b = d v, soit k = u ∧ v, alors kd divise a et b, donc
|kd | 6 |d | ce qui entraîne k = 1.
Si a = d u, b = d v avec u ∧ v = 1 : alors d est un diviseur commun à a et b, d’après le théorème de Bézout, il existe
α, β ∈ Z tels que αu + βv = 1, d’où d = αa + βb, on voit donc que tout diviseur commun à a et b est diviseur de d , donc
Da,b = Dd i.e. d est le plus grand diviseur commun [d est positif ], i.e. d = a ∧ b.
Preuve : Pour le premier point : Soit d = pgcd(a, b), alors Da,b = Dd donc tout diviseur commun à a et b est un diviseur
de d .
Pour le deuxième point : soit d = pgcd(a, b), alors il existe u, v ∈ Z premiers entre eux tels que a = d u et b = d v,
d’où ka = kd u et kb = kd v, donc kd = pgcd(ka, kb).
Pour le troisième point : en reprenant les notations ci-dessus, a n = d n u n et b n = d n v n , or u et v sont premiers
entre eux, donc u n et v n aussi (conséquence du théorème de Bézout ), par conséquent d n = pgcd(a n , b n ).
Pour le dernier point : on reprend les notations ci-dessus, a = d u et bc = d c v mais u | a et a est premier avec c,
MO
donc u est premier avec c, d’où u est premier avec c v, et donc d = pgcd(a, bc).
3) Généralisation
Soient a, b, c trois entiers non tous nuls, l’ensemble des diviseurs communs à a, b et c est :
or on sait que Da ∩ Db = Da∧b , donc Da,b,c = D(a∧b)∧c = Da∧(b∧c) . Ces deux entiers étant strictement positifs,
on a (a ∧ b) ∧ c = a ∧ (b ∧ c) et ce nombre est le plus grand diviseur positif commun à a, b et c. Par définition
ce nombre est le pgcd de a, b et c, on le note : pgcd(a, b, c) .
À retenir
L’associativité du pgcd permet de ramener le calcul au cas de deux entiers.
NE
Notons d 0 = a ∧ b et d = pgcd(a, b, c), alors d = d 0 ∧ c, donc il existe deux entiers u 0 et w tels que d =
d 0 u 0 + c w, de même, il existe deux entiers α et β tels que d 0 = αa + βb, d’où en remplaçant, d = aαu 0 + bβu 0 +
cw = au + bv + cw avec u, v, w ∈ Z.
Réciproquement, si d est un diviseur commun positif, et si d = au + bv + c w, alors il est facile de voir que
tout diviseur commun à a, b et c est un diviseur de d et donc d = pgcd(a, b, c), d’où le théorème :
Théorème 10.16
Soient a, b, c trois entiers non tous nuls et d ∈ N∗ , alors :
d = pgcd(a, b, c) ⇐⇒ d ∈ Da,b,c et ∃u, v, w ∈ Z, d = au + bv + c w.
AIG
Définition 10.6
Soient a, b, c trois entiers non tous nuls, on dira que ces trois nombres sont :
• premiers entre eux dans leur ensemble lorsque pgcd(a, b, c) = 1.
• premiers entre eux deux à deux lorsque pgcd(a, b) = pgcd(b, c) = pgcd(a, c) = 1.
Attention !
Les deux notions ne sont pas équivalentes, la deuxième entraîne la première mais la réciproque est fausse comme
le montre l’exemple suivant :
pgcd(6, 15, 20) = 1 mais pgcd(6, 15) = 3, pgcd(6, 20) = 2 et pgcd(15, 20) = 5.
1) Définition
Théorème 10.19
Si a et b sont non nuls, il existe un unique élément m positif dans Z tel que (a Z) ∩ (b Z) = m Z.
NE
Preuve : aZ ∩ bZ contient |ab| > 0, on note m le plus petit élément strictement positif dans aZ ∩ bZ, alors il est facile de
voir que mZ ⊂ aZ ∩ bZ. Si p ∈ aZ ∩ bZ, on effectue la division de p par m, p = mq + r avec 0 6 r < m, d’où r = p − mq,
on vérifie alors que r est aussi dans aZ ∩ bZ (car a et b divisent p et m donc p − mq). Si r > 0 alors r > m car m est
le plus petit élément strictement positif dans aZ ∩ bZ, ceci est absurde, donc r = 0 et p = mq, d’où aZ ∩ bZ ⊂ mZ, et
finalement on a bein l’inégalité.
Si m 0 Z = mZ avec m 0 > 0, alors m et m 0 se divisent muutuellement, d’où m = m 0 .
Il découle de ce théorème que c est un multiple commun à a et b si et seulement si c ∈ (a Z) ∩ (b Z), ce qui
équivaut à c ∈ m Z, c’est à dire m | c. Ceci entraîne en particulier : m 6 |c|.
Définition 10.7
Soit a, b ∈ Z, non nuls, et soit m ∈ N∗ , on dit que m est le ppcm de a et b lorsque (a Z) ∩ (b Z) = m Z.
AIG
Notation : m = ppcm(a, b) ou encore m = a ∨ b.
2) Propriétés
Théorème 10.21
Soient a, b ∈ Z, non nuls :
a) ∀ n ∈ Z, si a | n et b | n alors ppcm(a, b) | n.
b) Si a et b sont premiers entre eux, alors ppcm(a, b) = |ab|.
c) ∀ k ∈ N, non nul, ppcm(ka, kb) = kppcm(a, b).
d) ppcm(a, b) × pgcd(a, b) = |ab|.
MO
Preuve : Pour le deuxième point : a et b sont premiers entre eux, alors ab = ba par conséquent ppcm(a, b) = ab d’après
le théorème précédent.
Pour le troisième point : soit m = ppcm(a, b), alors m = au = bv avec u et v premiers entre eux, d’où km = kau =
kbv et donc km = ppcm(ka, kb).
Pour le quatrième point : soit m = ppcm(a, b) et d = pgcd(a, b), il existe u et v premiers entre eux tels que a = d v et
b = d u, or au = bv donc m = au = bv par conséquent md = ad u = ab.
Pour le cinquième point : soit m = ppcm(a, b) on a m = au = bv avec u et v premiers entre eux, donc m n = a n u n =
b v avec u n et v n premiers entre eux, donc m n = ppcm(a n , b n ).
n n
1) Définition
Définition 10.8
Un entier p ∈ Z est dit premier lorsque p > 2, et que ses seuls diviseurs positifs sont 1 et p. L’ensemble
NE
des nombres premiers est noté P .
ZExemples :
– 2, 3, 5, 7, 11, 13, 17, 19, 23, . . . sont des nombres premiers.
n
– Les nombres de Fermat 3 : Fn = 22 + 1 sont premiers pour n = 0, 1, 2, 3, 4 mais pas pour n = 5.
– Les nombres de Mersennes 4 : Mp = 2p − 1 où p ∈ P, sont premiers pour p = 2, 3, 5, 7, 127, . . . mais pas
pour p = 11.
FExercice 10.4
1/ Montrer que si 2p + 1 est un nombre premier alors p est une puissance de 2.
2/ Montrer que si 2p − 1 est un nombre premier, alors p est un nombre premier.
AIG
Propriétés élémentaires :
a) Si p est premier, alors ∀n ∈ Z, soit p | n, soit pgcd(n, p) = 1.
Preuve : Soit d = pgcd(p, n), alors d | p donc d = 1 ou d = p, mais p ne divise pas n, donc d 6= p, i.e. d = 1.
Compléments : Soit (p n )n >1 la suite strictement croissante des nombres premiers, la répartition de ces
nombres encore aujourd’hui mal connue, cependant on a les quelques résultats suivants :
MO
– Tout segment de la forme Jn; 2n K contient au moins un nombre premier (théorème de Bertrand ).
– Si a, b ∈ N∗ sont premier entre eux, alors il existe une infinité de nombre premiers de la forme an + b
(théorème de Dirichlet ).
– p n ∼ n ln(n) (théorème de Hadamard ).
+∞
3. FERMAT Pierre De (1601 – 1665) : mathématicien amateur (éclairé !) l’un des plus féconds de son époque mais qui faisait peu
de démonstrations et publiait peu.
4. MERSENNES Marin (1588 – 1648) : moine français qui entretenait une correspondance suivie avec les mathématiciens de son
époque.
Preuve : Pour n ∈ N on fait une récurrence : la propriété est vraie au rang 0, supposons la vraie au rang n, alors
(n + 1)p ≡ n p + 1 (mod p), en appliquant l’hypothèse de récurrence, on a (n + 1)p ≡ n + 1 (mod p).
On remarque ensuite que (−1)p ≡ −1 (mod p) car soit p = 2, soit p est premier impair, on en déduit que (−n)p ≡ −n
NE
(mod p). On a donc pour tout entier n, p | n p − n = n(n p−1 − 1), si p ne divise pas n alors p est premier avec n, donc
p | n p−1 − 1, c’est à dire n p−1 ≡ 1 (mod p).
AIG
Par récurrence sur n : pour n = 2 il n’y a rien à montrer car 2 est premier. Supposons le théorème démontré jusqu’au
rang n > 2, alors n + 1 admet au moins un diviseur premier p, donc n + 1 = pk, si k = 1 alors n + 1 est premier, sinon k
est un produit de facteurs premiers (HR), donc n + 1 aussi.
β β
Preuve : Si p 1 ∉ {q 1 , . . . , q s }, alors p 1 est premier avec q 1 , . . . , q s , donc p 1 est premier avec q 1 1 ×. . .×q s s , i.e. p 1 est premier
avec n, ce qui est absurde puisque p 1 | n, donc p 1 ∈ {q 1 , . . . , q s }. Finalement on a {p 1 , . . . , p r } ⊂ {q 1 , . . . , q s } et par symétrie
on a l’égalité des deux ensembles, donc r = s. Quitte à permuter les indices que la famille (q i ), on peut supposer que
p 1 = q1 , . . . , p r = qr .
NT
α β
Le théorème de Gauss entraîne que p k k | p k k , donc αk 6 βk , par symétrie on a βk 6 αk , et donc αk = βk , ce qui
termine la preuve.
(contient 0) et majoré par n (on peut montrer par récurrence que p n >n), cet ensemble admet donc un
maximum :
Définition 10.9
Soit p ∈ P et n ∈ N∗ on appelle valuation p-adique de n, notée v p (n), le plus grand entier k tel que
p k | n. La définition s’étend à Z, en posant v p (−n) = v p (n) si n < 0 et v p (0) = +∞.
MO
Remarque 10.6 :
– v p (n) = k ⇐⇒ p k | n et p k+1 - n ⇐⇒ ∃ q ∈ N, n = p k q avec p ∧ q = 1 .
– v p (n) > 1 ⇐⇒ p | n, auquel cas v p (n) est la puissance de p dans la décomposition de n en facteurs
premiers.
– k ∈ N / p k | n = J0; v p (n)K.
© ª
À retenir
p v p (n) .
Q
Pour tout entier n > 2, la décomposition de n en produit de facteurs premiers s’écrit : n =
p∈P
En effet, seul un nombre fini de valuations sont non nulles (les autres donnent un facteur égal à 1).
NE
a) ∀p ∈ P , v p (nm) = v p (n) + v p (m).
b) ∀p ∈ P , v p (n + m) > min(v p (n); v p (m)).
c) n | m ⇐⇒ ∀p ∈ P , v p (n) 6 v p (m).
d) Si n et m sont non nuls alors ∀p ∈ P :
v p (n ∧ m) = min(v p (n); v p (m)) et v p (n ∨ m) = max(v p (n); v p (m)).
Preuve :
0
a) Si un des deux est nul, c’est évident. Supposons n et m non nuls, soit n = p k q avec p ∧ q = 1 et m = p k q 0 avec
0
p ∧ q 0 = 1, d’où nm = p k+k q q 0 et p ∧ (q q 0 ) = 1, donc v p (nm) = kk 0 .
b) Si un des deux est nul, c’est évident. Supposons n et m non nuls, et avec les mêmes notations, supposons k 6 k 0 ,
AIG
0
alors n + m = p k [q + p k −k q 0 ] donc v p (n + m) > k. On remarque qu’il y a égalité lorsque k 6= k 0 .
c) Si m = 0 c’est évident, supposons m 6= 0 et n | m, alors pour tout premier p, k ∈ N / p k | n ⊂ k ∈ N / p k | m
© ª © ª
24 × 3 × 5 × 7.
Sommaire
AIG
I Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3) Limite à gauche, limite à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
II Propriétés des limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
1) Limites et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
2) Limite et relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3) Limite et composition des fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4) Limite et sens de variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
III Calculs de limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
1) Comparaison des fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
2) Les exemples classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
NT
1) Définition de la limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Dans ce chapitre, les fonctions considérées sont définies sur un intervalle non trivial de R.
I LIMITES
1) Définition
Soit f : I → R une fonction, soit a un élément de I ou bien une extrémité de I (a ∈ R), et soit b ∈ R,
intuitivement on dira que b est la limite de f (x) quand x tend vers a lorsque f (x) peut être aussi voisin que
MO
Définition 11.1
On dit que f admet pour limite b en a lorsque : ∀ W, voisinage de b, ∃ V, voisinage de a, tel que
∀ x ∈ I, x ∈ I ∩ V =⇒ f (x) ∈ W. Si c’est le cas, on notera :
lim f (x) = b = lim f = b, ou encore f (x) −→ b.
x→a a x→a
NE
– Si a = −∞ et b = −∞ : ∀ A ∈ R, ∃ B ∈ R, ∀ x ∈ I, x < B =⇒ f (x) < A.
ZExemples :
p
– Soit f (x) = x 2 , montrons que lim f = +∞ : soit A ∈ R, posons B = |A|, si x > B alors x 2 > B2 = |A| > A
+∞
donc f (x) > A.
– Soit f (x) = x 2 et soit a ∈ R, montrons que lim f = a 2 : soit ε > 0, |x 2 − a 2 | = |x − a||x + a|, si |x − a| < α,
a
ε
alors |x 2 − a 2 | < α(α + 2|a|), si on prend α = min(1; 1+2|a|) ), alors α(α + 2|a|) 6 α(1 + 2|a|) 6 ε, donc
∀ x ∈ R, |x − a| < α =⇒ |x 2 − a 2 | < ε.
Remarque 11.1 –
a) Si lim f = b alors lim | f | = |b|, mais la réciproque est fausse sauf pour b = 0.
AIG
a a
b) Lorsque b ∈ R, lim f = b ⇐⇒ lim | f (x) − b| = 0 ⇐⇒ lim f (x) − b = 0.
a a a
La définition de la limite d’une suite, que nous avons vue dans un chapitre précédent, peut s’énoncer
ainsi en terme de voisinage :
2) Premières propriétés
Théorème 11.1
NT
Soit f : I → R une fonction et soit a un élément ou une extrémité de I.
• Si f admet une limite en a, alors celle - ci est unique.
• Si f admet une limite finie en a, alors f est bornée au voisinage de a (réciproque fausse).
• Si lim f = b et si α < b (respectivement b < α), alors au voisinage de a f est strictement supérieure à
a
α (respectivement f (x) > α).
• Si lim f = b avec a ∈ I, alors nécessairement b = f (a).
a
Preuve : Pour les trois premiers points, la preuve est tout à fait analogue à celle faite pour les suites.
Pour le quatrième point : tout voisinage de b doit contenir f (a), on en déduit par l’absurde que b = f (a).
lim f = b ⇐⇒ pour toute suite (u n ) d’éléments de I qui tend vers a (dans R), la suite ( f (u n )) tend vers
a
b (dans R).
Preuve : Supposons que lim f = b et soit (u n ) une suite d’éléments de I telle que u n −→ a. Soit W un voisinage de
a
b, il existe V un voisinage de a tel que x ∈ I ∩ V =⇒ f (x) ∈ W. Comme u n −→ a, il existe un entier N ∈ N tel que
n > N =⇒ u n ∈ V, or les termes u n sont dans I donc si n > N alors u n ∈ I ∩ V et donc f (u n ) ∈ W, ce qui prouve que
f (u n ) −→ b.
Supposons maintenant que pour toute suite (u n ) d’éléments de I qui tend vers a, la suite ( f (u n )) tend vers b. Si la
fonction f n’a pas pour limite b en a, alors il existe un voisinage W de b tel que pour tout voisinage V de a, il existe
x ∈ I ∩ V tel que f (x) ∉ W. En prenant pour n ∈ N∗ des voisinages de la forme Vn =]a − n1 ; a + n1 [ si a ∈ R, Vn =]n; +∞[ si
a = +∞, ou Vn =] − ∞; −n[ si a = −∞, on construit une suite (u n ) d’éléments de I telle que u n ∈ Vn et f (u n ) ∉ W, il est
facile de voir que la suite (u n ) tend vers a, donc la suite ( f (u n )) tend vers b, à partir d’un certain rang on doit donc avoir
f (u n ) ∈ W ce qui est contradictoire, donc lim f = b.
a
Applications :
– Ce théorème peut être utilisé pour montrer qu’une fonction f n’a pas de limite en a.
Par exemple, la fonction f c ol onx 7→ sin(x) n’a pas de limite en +∞ car la suite u définie par u n = π2 + nπ tend
vers +∞ mais la suite ( f (u n ) = (−1)n ) n’a pas de limite.
NE
– Ce théorème peut être également utilisé pour prouver les propriétés de la limite d’une fonction en se ramenant à
celles des suites.
Voici un autre lien avec les suites (que l’on utilisait déjà de manière assez naturelle) :
Théorème 11.3
Soit f : ]A; +∞[→ R une fonction telle que lim f = b ∈ R, alors la suite (u n ) définie (à partir d’un certain
+∞
rang) par u n = f (n) a pour limite b.
Preuve : Soit W un voisinage de b, il existe un réel B tel que ∀ x ∈ I, x > B =⇒ f (x) ∈ W, par conséquent si n > N = 1+bBc,
alors u n ∈ W, donc u n → b.
AIG
3) Limite à gauche, limite à droite
Définition 11.3
Soit f : I → R une fonction, soit a un élément de I ou une extrémité réelle de I, et soit b ∈ R.
– Si I∩] − ∞; a[6= ; : on dit que b est la limite à gauche en a de f lorsque :
∀ W,voisinage de b, ∃ α > 0, ∀ x ∈ I, x ∈]a − α; a[=⇒ f (x) ∈ W .
Notations : lim−
f = lim−
f (x) = lim f (x) = b.
a x→a x−→a
x<a
– Si I∩]a; +∞[6= ; : on dit que b est la limite à droite en a de f lorsque :
∀ W, voisinage de b, ∃ α > 0, ∀ x ∈ I, x ∈]a; a + α[=⇒ f (x) ∈ W.
Notations : lim f = lim+ f (x) = lim f (x) = b.
+
a x→a x−→a
x>a
NT
ZExemple : Soit f (x) = bxc et soit a ∈ Z, alors lim f = a et lim
−
f = a − 1.
+ a a
Théorème 11.4
On a lim f (x) = b ⇐⇒ lim f = lim f = b. Et lorsque a ∈ I :
x−→a a+ a−
x6=a
à !
lim f (x) = b ⇐⇒ f (a) = b et lim f (x) = b .
x→a x−→a
x6=a
ZExemple : Soit f la fonction définie sur R par f (x) = 0 si x = 0 . Il est facile de voir que : lim f (x) = 1,
x−→0
1 − x 2
si x > 0 x6=0
1) Limites et opérations
Soient f , g ∈ F (I, R) et soit a un élément de I ou une extrémité de I. Si lim f = ` et lim g = `0 (dans R),
a a
alors :
Théorème 11.5
– lim f + g = ` + `0 sauf si ` = +∞ et `0 = −∞ (ou l’inverse) : forme indéterminée.
a
NE
Preuve : Pour le premier point : soit (u n ) une suite d’éléments de I qui tend vers a, alors f (u n ) −→ ` et g (u n ) −→ `0
donc (propriétés des suites) f (u n ) + g (u n ) −→ ` + `0 car nous ne sommes pas dans le cas d’une forme indéterminée, par
conséquent la fonction f + g a pour limite ` + `0 en a. Le raisonnement est le même pour tous les autres points jusqu’au
dernier.
Théorème 11.6
Si f ne s’annule pas au voisinage de a alors :
1
` si ` ∈ R∗
si ` = ±∞
0
1
AIG
lim = +∞ si ` = 0 et f > 0 au voisinage de a
a f
si ` = 0 et f < 0 au voisinage de a
−i n f t y
n’existe pas sinon
Preuve : Nous sommes dans le cas où ` = 0 et sur tout voisinage de a f prend des valeurs strictement positives et
des valeurs strictement négatives ( f n’est pas de signe constant), on peut donc construire deux suites (u n ) et (v n ) qui
tendent vers a et telles que f (u n ) > 0 et f (v n ) < 0, mais alors f (u1 n ) −→ +∞ et f (v1 n ) −→ −∞, donc 1f n’a pas de limite en
a.
ZExemples :
– Soit a ∈ R, lim x = a d’où ∀ n ∈ N∗ , lim x n = a n (encore vrai pour n = 0). On en déduit que si P est une
a a
fonction polynomiale, alors lim P = P(a).
a
P
– Si R = Q est une fraction rationnelle et si Q(a) 6= 0, alors lim R = R(a).
a
NT
2) Limite et relation d’ordre
Théorème 11.7
Soient f , g , h : I → R trois fonctions et soit a un élément de I ou une extrémité de I.
– On suppose qu’au voisinage de a, f 6 g , alors :
• Si lim f = +∞ alors lim g = +∞.
a a
• Si lim g = −∞ alors lim f = −∞.
a a
– Si f 6 h 6 g au voisinage de a et si lim f = lim g = ` ∈ R, alors lim h = ` (théorème des gendarmes
a a a
ou de l’étau).
– Si f 6 g au voisinage de a et si f et g ont chacune une limite dans R, alors lim f 6 lim g (théorème
MO
a a
du passage à la limite).
– Si lim f = 0 et si g est bornée au voisinage de a, alors lim f × g = 0.
a a
– Si lim f = +∞ (respectivement −∞) et si g est minorée au voisinage de a (respectivement majorée),
a
alors lim f + g = +∞ (respectivement −∞).
a
Preuve : Supposons lim f = +∞, soit (u n ) une suite d’éléments de I qui tend vers a, à partir d’un certain rang, on a
a
f (u n ) 6 g (u n ), or f (u n ) → +∞, donc g (u n ) → +∞ et par conséquent lim g = +∞. Pour le deuxième cas, on raisonne
a
sur − f et −g .
Pour les autres points on procède de la même façon, en se ramenant aux suites.
Remarque 11.2 –
– Si | f | 6 g au voisinage de a et si lim g = 0, alors lim f = 0.
a a
– On peut avoir f < g au voisinage de a et lim f = lim g . Dans un passage à la limite les inégalités
a a
deviennent larges.
NE
Théorème 11.8
Si lim f = b, alors b appartient à J ou b est une extrémité de J.
a
Preuve : Il suffit de distinguer les cas sur J, par exemple, si J =]α; β[, alors ∀ x ∈ I, α < f (x) < β, par passage à la limite, on
obtient α 6 b 6 β. Les autres cas se traitent de la même façon.
AIG
Preuve : Soit (u n ) une suite d’éléments de I qui tend vers a, la suite ( f (u n )) est une suite d’éléments de J qui tend vers b,
donc la suite (g [ f (u n )]) tend vers `, ce qui prouve que lim g ◦ f = `.
a
Dans la pratique, ce théorème est parfois appelé changement de variable dans une limite. Il dit en effet
que si on pose X = f (x), alors comme X → b, on a lim g ( f (x)) = lim g (X) = `.
x→a x→a X→b
sin(x) ln(x)
e −1 e X −1
ZExemple : Calculons lim f avec : f (x) = sin(x) ln(x) . On pose X = sin(x) ln(x), alors lim X = 0, or lim = 1,
+ 0 + 0 X→0 X
donc la limite cherchée vaut 1.
Preuve : Soit S 1 = sup f (x) et S 2 = sup f (x), il est clair que S 1 6 S 2 . Si x ∈]c; b[, alors f (x) 6 S 1 , ∀ t ∈]a; x], on a
x∈]c;b[ x∈]a;b[
f (t ) 6 f (x) 6 S 1 et ∀ t ∈ [x; b[, c < t < b, donc f (t ) 6 S 1 , finalement ∀ t ∈]a; b[, f (t ) 6 S 1 et donc S 2 6 S 1 , d’où l’égalité.
Le raisonnement est similaire pour les bornes inférieures.
Théorème 11.11
Si f : I → R est croissante, en notant a la borne de gauche de I et b la borne de droite :
MO
• si f est majorée, alors f admet une limite finie à gauche en b qui est lim
−
f = sup f (x). Si de plus si
b x∈]a;b[
b ∈ I, alors lim
−
f 6 f (b).
b
• si f est non majorée, alors f admet +∞ comme limite à gauche en b.
• si f est minorée, alors f admet une limite finie à droite en a qui est lim
+
f = inf f (x). Si de plus si
a x∈]a;b[
a ∈ I, alors lim
+
f > f (a).
a
• si f est non minorée, alors f admet −∞ comme limite à droite en a.
Preuve : Soit S = sup f dans R, soit W un voisinage de S, il existe un réel x 0 ∈]a; b[ tel que f (x 0 ) ∈ W. Si x ∈]x 0 ; b[, alors
]a;b[
f (x 0 ) 6 f (x) 6 S ce qui entraîne f (x) ∈ W et donc lim
−
f = S. Si de plus b ∈ I, alors comme f est croissante, f est majorée
b
sur ]a; b[ par f (b), donc on a S 6 f (b). Le raisonnement est similaire pour lim f .
a+
Remarque 11.3 –
a) Si f est croissante majorée sur I alors f admet une limite finie en b − (limite non atteinte sur ]a; b[ si la
croissance est stricte).
NE
b) Si f est croissante non majorée sur I alors f a pour limite +∞ en b − .
c) Si f est croissante minorée sur I alors f admet une limite finie en a + (limite non atteinte sur ]a; b[ si la
croissance est stricte).
d) Si f est croissante non minorée sur I alors f a pour limite −∞ en a + .
ZExemple : Soit f (x) = ln(x). Pour n ∈ N∗ , ln(2n ) = n ln(2), or ln(2) > 0 car 1 < 2 et f est strictement croissante,
donc n ln(2) → +∞, ce qui prouve que f est non majorée, comme elle est croissante, on a lim f = +∞.
+∞
AIG
limite finie à droite et à gauche en x 0 , de plus on a : lim
−
f 6 f (x 0 ) 6 lim f . Et si x 1 ∈]a; b[ avec x 0 < x 1 ,
x0 +
x0
alors : lim f 6 lim
−
f.
x0+ x1
Preuve : Sur l’intervalle ]a; x 0 [, la fonction f est croissante et majorée par f (x 0 ), donc la fonction f a une limite finie à
gauche en x 0 et d’après le théorème précédent : lim −
f = sup f (t ) 6 f (x 0 ). Le raisonnement est le même à droite. Si
x0 t ∈]a;x 0 [
x 0 < x 1 < b, on applique le théorème précédent sur l’intervalle ]x 0 ; x 1 [ : lim f = inf f (t ) 6 sup f (t ) = lim
−
f.
x 0+ t ∈]x 0 ;x 1 [ t ∈]x 0 ;x 1 [ x1
Remarque 11.4 – En changeant f et − f et en utilisant que pour une partie non vide A de R : inf(A) = − sup(−A),
on obtient deux théorèmes analogues aux précédents pour les fonctions décroissantes.
Définition 11.4
Soient f , g : I → R deux fonctions, et soit a ∈ I ou une extrémité de I. On dit que :
– f est dominée par g au voisinage de a lorsqu’il existe un voisinage V de a, et une fonction ε : V → R
tels que : ∀ x ∈ V ∩ I, f (x) = g (x)ε(x) avec ε bornée. Notation : f (x) = O g (x) .
¡ ¢
a
– f est négligeable devant g au voisinage de a lorsqu’il existe un voisinage V de a, et une fonction
ε : V → R tels que : ∀ x ∈ V ∩ I, f (x) = g (x)ε(x) avec lim ε(x) = 0. Notation : f (x) = o g (x) .
¡ ¢
x→a a
– f est équivalente à g au voisinage de a lorsqu’il existe un voisinage V de a, et une fonction ε : V → R
tels que : ∀ x ∈ V ∩ I, f (x) = g (x)ε(x) avec lim ε(x) = 1. Notation : f (x) ∼ g (x).
x→a a
MO
Remarque 11.5 –
a) f (x) = O(1) signifie que la fonction f est bornée au voisinage de a.
a
NE
b) f (x) = o (1) signifie que lim f = 0.
a a
¡ ¢ ¡ ¢
c) Si f (x) = o g (x) alors f (x) = O g (x) .
a a
¡ ¢
d) Si f (x) ∼ g (x) alors f (x) = O g (x) .
a a
¡ ¢
e) Si f (x) = o g (x) et g (x) = o (h(x)), alors f (x) = o (h(x)) (transitivité).
a a a
¡ ¢
f ) Si f (x) = O g (x) et g (x) = O(h(x)), alors f (x) = O(h(x)) (transitivité)
a a a
¡ ¢
g) f (x) ∼ g (x) ⇐⇒ f (x) = g (x) + o g (x) .
a a
Théorème 11.14
AIG
La relation « ... est équivalente à ... au voisinage de a » est une relation d’équivalence dans F (I, R),
c’est à dire qu’elle est réflexive, symétrique et transitive. De plus :
– Si ` ∈ R∗ alors lim f = ` équivaut à f (x) ∼ `.
¡ a¢ a
– Si f (x) = o g (x) alors f (x) + g (x) ∼ g (x).
a a
(0) 0 0 0 0 0
p
P k p
– Soit P(x) = a k x une fonction polynomiale avec a p 6= 0, alors P(x) ∼ a p x (équivalence avec le
k=0 ±∞
terme de plus haut degré).
P(x)
– Soit Q(x) = R(x) une fraction rationnelle avec a p x p le terme de plus haut degré de P (a p 6= 0) et
ap
b r x r celui de R (b r 6= 0), alors Q(x) ∼ x p−r (équivalence avec le rapport des termes de plus haut
±∞ b r
degré).
NE
– Si a ∈ R, on pose u = x − a(= ε(x)), on a alors u −→ 0, on pose h(u) = f (x) = f (u + a). Si h(u) ∼ g (u),
x→a 0
alors f (x) ∼ g (x − a).
a
– Si a = ±∞ alors on pose u = x1 (= ε(x)), on a alors u → 0, on pose h(u) = f (x) = f ( u1 ). Si h(u) ∼ g (u),
x→a 0
alors f (x) ∼ g ( x1 ).
a
3) Propriétés
Il découle de la définition :
Théorème 11.18
Soient f , g : I → R deux fonctions, et soit a ∈ I ou une extrémité de I :
AIG
– Si f ∼ g alors f et g ont le même signe au voisinage de a.
a
– Si f ∼ g et si lim g = ` ∈ R, alors lim f = `.
a a a
– Si f ∼ g et si h ∼ k, alors f × h ∼ g × k (compatibilité avec la multiplication).
a a a
1 1
– Si f ∼ g et si g ne s’annule pas au voisinage de a, alors f ∼ (compatibilité avec le passage à
a a g
l’inverse).
– Si f ∼ g et si g > 0 au voisinage de a, alors f α ∼ g α pour tout réel α.
a a
Remarque 11.7 –
– Il n’y a pas compatibilité avec l’addition en général. Par exemple : x + sin( x1 ) ∼ x et −x ∼ 1 − x, mais
+∞ +∞
sin( x1 ) n’est pas équivalent à 1 au voisinage de +∞.
– Ces propriétés sont utiles pour les calculs de limites qui ne peuvent pas être faits directement : on essaie
NT
de se ramener à un équivalent plus simple (s’il y en a ...) dont on sait calculer la limite.
ZExemples :
– Limite en +∞ de (1 + x1 )x : ici f (x) = exp(x ln(1 + x1 )), or ln(1 + x1 ) ∼1
car 1
→ 0, donc x ln(1 + x1 ) ∼ 1,
+∞ x x +∞ +∞
la limite cherchée est donc égale à 1.
x
– Soit à calculer : lim+ sin(x)
p −1
x ln(x)
. On a sin(x)x = exp(x ln(sin(x))), or ln(sin(x)) = ln( sin(x)
x ) + ln(x), on en
x→0
déduit ln(sin(x)) ∼ ln(x) et donc x ln(sin(x)) ∼ x ln(x) −→ 0, d’où : exp(x ln(sin(x))) − 1 ∼ x ln(sin(x)) ∼
0 p 0 0 0 0
x ln(x), par conséquent f (x) ∼ pxx = x, et donc la limite cherchée est égale à 0.
0
1) Définition de la limite
Les fonctions à valeurs complexes ont été introduites au début du chapitre 6. Soit f : I → C une fonction,
on note u = Re( f ) (partie réelle de f ) et v = Im( f ) (partie imaginaire de f ), on rappelle que u et v sont des
fonctions de I vers R, et ∀ t ∈ I, f (t ) = u(t ) + i v(t ).
La fonction conjuguée de f et la fonction f : t 7→ u(t ) − i p v(t ).
La fonction module de f est la fonction | f | : t 7→ | f (t )| = u(t )2 + v(t )2 .
La fonction f est bornée sur I si et seulement si ∃ M ∈ R+ , ∀ t ∈ I, | f (t )| 6 M. Ceci équivaut à dire que les
fonctions u et v sont bornées.
L’ensemble des fonctions de I vers C est notée F (I, C), pour les opérations usuelles sur les fonctions, c’est
un C-espace vectoriel et un anneau commutatif non intègre.
Définition 11.5
Soit ` ∈ C, et soit a un élément de I ou une extrémité de I. On dira que la fonction f a pour limite ` en
NE
it
ZExemple : Soit f (t ) = ie+t , on a | f (t )| = p 1 → 0, donc lim f (t ) = 0.
1+t 2 t →0
2) Propriétés
Théorème 11.19
lim | f (t ) − `| = 0 ⇐⇒ lim Re( f (t )) = Re(`) et lim Im( f (t )) = Im(`).
t →a t →a t →a
AIG
Connaissant les propriétés des limites (finies) des fonctions à valeurs réelles, on peut déduire celles des
fonctions à valeurs complexes en raisonnant sur les parties réelles et imaginaires :
– lim f = ` ∈ C si et seulement si pour toute suite (u n ) d’éléments de I qui tend vers a, la suite ( f (u n ))
a
tend vers `.
– Si lim f = ` ∈ C, alors f est bornée au voisinage de a.
a
– Si lim f = `, lim g = `0 , alors lim f + g = ` + `0 , lim f × g = ``0 , ∀ λ ∈ C, lim λ f = λ`.
a a a a a
– Si lim f = ` alors lim f = ` et lim | f | = |`|.
a a a
– Si lim f = ` ∈ C∗ , alors au voisinage de a f ne s’annule pas et lim 1f = 1` .
a a
NT
MO
Continuité
Sommaire
AIG
I Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
2) Théorèmes généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
II Fonctions continues sur un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
1) Théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
2) Continuité sur un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3) Uniforme continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
III Continuité et fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
1) Image d’un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2) Monotonie et continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3) Théorème des bijections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
1) Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
NT
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
I RAPPELS
1) Définitions
Définition 12.1
Soit f : I → R une fonction et soit a ∈ I, on dit que f est
– continue en a lorsque lim f (t ) = f (a) (sinon on dit que a est un point de discontinuité de f ).
t →a
– continue à gauche en a lorsque I∩] − ∞; a[6= ; et lim− f (t ) = f (a).
t →a
MO
Remarque 12.1 :
– Les fonctions trigonométriques, logarithmes, exponentielles, puissances, polynomiales, rationnelles,
ainsi que la fonction valeur absolue sont continues sur leur ensemble de définition.
– f est continue en a ∈ I si et seulement si ∀ ε > 0, ∃ α > 0, ∀ x ∈ I, |x − a| < α =⇒ | f (x) − f (a)| < ε.
– Si f est continue sur I et si J ⊂ I, alors f est continue sur J.
– f est continue en a si et seulement si lim f (t ) = f (a), lorsque a n’est pas une borne de I, ceci équivaut à
x→a
x6=a
lim+ f (t ) = f (a) et lim− f (t ) = f (a), i.e. f est continue à gauche et à droite en a.
t →a t →a
– Si f est continue en a, alors f est bornée au voisinage de a (car f a une limite finie en a).
– f est continue en a ssi pour toute suite (u n ) d’éléments de I, qui tend vers a, la suite ( f (u n )) tend vers
f (a).
FExercice 12.1
1/ Étudier la continuité de x 7→ bxc en a ∈ R, distinguer a ∈ Z et a ∈ R \ Z.
NE
2/ Montrer que la fonction caractéristique de Q, 1Q , est discontinue en tout point de R.
sin(x)
ZExemple : La fonction f définie sur R∗ par f (x) = x admet un prolongement par continuité en 0 en
AIG
posant f (0) = 1.
2) Théorèmes généraux
Théorème 12.1
Soient f , g deux fonctions continues sur I, et soit α un réel, alors :
– f + g , f × g et α f sont continues sur I.
f
– Si g ne s’annule pas sur I alors g est continue sur I.
– Si h : J → R est une fonction continue sur l’intervalle J et si f (I) ⊂ J, alors h ◦ f est continue sur I.
Preuve : Ceci découle des propriétés des limites, par exemple : lim f = f (a) et lim g = g (a), donc lim( f +g ) = f (a)+g (a)
a a a
(somme de limites finies), ce qui prouve que f + g est continue en a. Les autres points se démontrent de la même façon.
NT
Conséquences :
a) Il découlent des théorèmes généraux que C 0 (I, R) est une R-algèbre pour les opérations usuelles sur
les fonctions.
b) Si f et g sont continues sur I alors sup( f , g ) et inf( f , g ) le sont (en particulier f + et f − le sont), car
f +g +| f −g | f +g −| f −g |
sup( f , g ) = 2 et inf( f , g ) = 2 .
(
ln(1+x)(x−π)
sin(x) si 0 < x < π
FExercice 12.2 Étudier la continuité de la fonction f avec f (x) = x
, y-a-t’il un prolongement
e − cos(x) si x 6 0
par continuité en π ?
Théorème 12.2
Soit f : [a; b] → R une fonction continue sur le segment [a; b] (a < b), si f (a) et f (b) sont de signes
contraires, alors f s’annule au moins une fois, i.e. : ∃ ` ∈ [a; b], f (`) = 0.
Preuve : Méthode dichotomique : on construit deux suites (récurrentes) (a n ) et (b n ) en posant a 0 = a, b 0 = b, puis pour
tout entier n :
a n +b n a n +b n
si f ( 2 ) et f (a n ) sont de signes contraires, alors on pose a n+1 = a n et b n+1 = 2 (moitié de gauche), sinon,
a n +b n
on pose a n+1 = 2 et b n+1 = b n (moitié de droite).
On montre ensuite par récurrence, la propriété :
b−a
P(n) : « a n , b n ∈ [a; b], b n − a n = 2n , f (a n ) et f (b n ) sont de signes contraires ».
a n +b n
Pour n = 0 : rien à faire. Si c’est vrai pour un entier n > 0 : alors a n et b n sont dans [a; b], donc c n = 2 aussi
(milieu).
a n +b n
Si f (c n ) et f (a n ) sont de signes contraires, alors b n+1 = 2 et a n+1 = b n , on voit donc que a n+1 et b n+1 sont dans
b n −a n b−a
[a, b], que b n+1 − a n+1 = 2 =2n+1
, que f (a n+1 ) et f (b n+1 ) sont de signes contraires, et que a n 6 a n+1 et b n+1 6 b n .
Si f (c n ) et f (a n ) ont le même signe, alors d’après l’hypothèse de récurrence, f (c n ) et f (b n ) sont de signes contraires,
NE
a +b b −a
on a alors a n+1 = n 2 n et b n+1 = b n , on voit donc que a n+1 et b n+1 sont dans [a, b], que b n+1 − a n+1 = n 2 n = 2b−a n+1 ,
que f (a n+1 ) et f (b n+1 ) sont de signes contraires, et que a n 6 a n+1 et b n+1 6 b n .
La propriété est donc vraie pour tout entier n, de plus la suite (a n ) est croissante, et la suite (b n ) est décroissante.
Comme b n − a n = b−a 2n → 0, les deux suites sont adjacentes. Elles ont donc une limite commune c ∈ [a; b] (passage à la
limite). La fonction f étant continue en c, on a f (a n ) → f (c) et f (b n ) → f (c), donc f (a n ) × f (b n ) → f (c)2 , or pour tout
n, f (a n ) × f (b n ) 6 0, donc f (c)2 6 0 (passage à la limite), et donc f (c) = 0.
Remarque 12.2 –
– Cette méthode permet de calculer des valeurs approchées de `. Dans la preuve ci-dessus, on a pour
tout n, a n est une valeur approchée de ` (solution de f (x) = 0) par défaut à b−a 2n près car |a n − `| =
b−a
` − a n 6 b n − a n = 2n . De même, pour tout n, b n est une valeur approchée de ` par excès à b−a
2n près car
|b n − `| = b n − ` 6 b n − a n = b−a
2n . Voici un algorithme en python :
AIG
1 def dichotomie(f,a,b,epsilon): #f continue et f(a)*f(b)<=0 avec a<b
2 while b-a >= epsilon:
3 milieu = (a+b)/2.
4 if f(a)*f(milieu) <= 0: #f s’annule dans la première moitié
5 b = milieu
6 else:
7 a = milieu #f s’annule dans la deuxième moitié
8 return (a+b)/2.
Cf
Cf Cf
NT
a c b a c b a c b
a0 b0 a0 b0 a0 b0
a1 b1 a1 b1 a1 b1
a2 b2 a2 b2 a2 b2
a3 b3 a3 b3 a3 b3
a4 b4 a4 b4 a4 b4
f continue en c f discontinue en c f ne change pas de signe.
– Il découle de ce théorème que si f : I → R est continue sur l’intervalle I et si f change de signe, alors f
s’annule au moins une fois sur I.
– Une fonction continue sur un intervalle et qui ne s’annule pas, garde un signe constant. Ceci est faux si I
MO
Preuve : Soient a, b deux réels distincts de I, supposons a < b, soit α un réel compris entre f (a) et f (b), posons
g (t ) = f (t ) − α, alors g est continue sur l’intervalle [a; b] et g (a) et g (b) sont de signes contraires. D’après le théorème
précédent, il existe c ∈ [a; b] tel que g (c) = 0, i.e. f (c) = α.
Posons J = f (I) et soient u < v deux éléments de J, alors il existe a, b ∈ I (distincts) tels que f (a) = u et f (b) = v. Soit
α ∈ [u, v], alors il existe c entre a et b tel que f (c) = α donc α ∈ J, ce qui prouve que J est un intervalle.
Théorème 12.4
NE
L’image d’un segment [a; b] par une fonction continue est un segment [m; M].
Preuve : Soit f : [a; b] → R une fonction continue sur le segment [a; b], posons J = f ([a; b]), on sait que J est un intervalle.
Posons m = la borne de gauche de J, et M la borne de droite (dans R), il existe une suite (y n ) de J qui tend vers m,
or y n ∈ f ([a; b]), donc il existe x n ∈ [a; b] tel que f (x n ) = y n . La suite (x n ) est une suite de [a; b], elle est donc bornée,
d’après le théorème de Bolzano-Weierstrass on peut en extraire une suite convergente : x σ(n) → `, par passage à la limite
on a ` ∈ [a; b], mais alors f (x σ(n) ) → f (`) car f est continue, c’est à dire y σ(n) → f (`), or y σ(n) → m, donc m = f (`). Ceci
prouve que m est un réel et que m ∈ J, donc m = min(J). De même on montre que M est un réel que M ∈ J, finalement
J = [m; M].
Remarque 12.3 – Il en découle qu’une fonction continue sur un segment possède un maximum (M) et un
minimum (m). On dit aussi parfois qu’une fonction continue sur un segment est bornée et atteint ses bornes.
AIG
3) Uniforme continuité
Dans la définition de « f est continue en a », on a :
Dans cette définition, le réel α dépend de a (et de ε bien entendu). On va distinguer dans la suite le cas où α
ne dépend que de ε :
Définition 12.3
On dit que la fonction f : I → R est uniformément continue sur I lorsque :
∀ ε > 0, ∃ α > 0, ∀ a, x ∈ I, |x − a| < α =⇒ | f (x) − f (a)| < ε.
NT
Remarque 12.4 –
a) Cette définition dépend aussi de l’ensemble I, on dit qu’elle a un caractère global, alors que la définition
de la continuité en un point est locale car elle ne dépend que du point (pas de l’ensemble I).
b) La définition d’uniforme continuité est plus forte que la définition de continuité. Autrement dit, une
fonction uniformément continue sur I est nécessairement continue sur I. Nous verrons que la réciproque
est fausse en général.
Ce qui signifie que tous les taux d’accroissements de f sont majorés en valeur absolue par K.
c) Soit k ∈ R+ , une fonction K-lipschitzienne sur I est nécessairement uniformément continue sur I. En effet,
ε
une telle fonction vérifie pour tout x, y ∈ I, | f (x) − f (y)| 6 K|x − y|n, par conséquent, si on prend α = k+1
k
alors on a | f (x) − f (y)| 6 k+1 ε < ε. Nous verrons dans le chapitre sur la dérivation, que si f est dérivable
et si f 0 est majorée en valeur absolue par une constante K, alors f est K-lipschitzienne (par contre si f 0
n’est pas bornée, alors la fonction ne peut pas être lipschitzienne). Par exemple, les fonctions sin et cos
sont 1-lipschitziennes.
ZExemples :
– La fonction x 7→ x 2 est uniformément continue sur tout segment [a; b] (car lipschitzienne). Pour la
même raison, les fonctions sin et cos sont uniformément continues sur R.
p p p p
– La fonction x 7→ x est uniformément continue sur [0; +∞[. Car pour x, y > 0, | x − y| 6 |x − y|,
il suffit donc de prendre α = ε2 dans la définition. Cependant nous verrons que cette même fonction
n’est pas lipschitzienne sur [0; +∞[ (dérivée non bornée).
– La fonction x 7→ x 2 n’est pas uniformément continue sur R. Si c’était le cas : avec ε = 1 il existe α > 0
p p
tel que ∀ x, y ∈ R, |x − y| < α =⇒ |x 2 − y 2 | < 1. Prenons x n = n + 1 et y n = n alors x n − y n ∼ 2p1 n → 0,
donc pour n assez grand on aura |x n − y n | < α d’où |x n2 − y n2 | < 1 i.e. 1 < 1 ce qui est absurde.
NE
p
FExercice 12.4 Étudier l’uniforme continuité des fonctions x 7→ cos( x) et x 7→ cos(x 2 ) sur [0; +∞[.
AIG
1
x σ(n) → `. Par passage à la limite on ` ∈ I. L’inégalité |x n − y n | < n+1 pour tout n entraîne que y σ(n) → `. La fonction f
étant continue en `, on a f (x σ(n) ) → f (`) et f (y σ(n) ) → f (`), donc | f (x σ(n) ) − f (y σ(n) )| → 0, ce qui donne par passage à
la limite, 0 > ε ce qui est absurde. Donc f est uniformément continue sur I.
FExercice 12.5 Montrer qu’une fonction continue sur un segment strictement positive, est minorée par un réel stricte-
ment positif.
Théorème 12.6
Si f est strictement croissante et continue sur l’intervalle I, alors :
• lorsque I = [a; b], on a f (I) = [ f (a); f (b)],
• lorsque I = [a; b[, on a f (I) = [ f (a); lim f [,
NT
b
• lorsque I =]a; b], on a f (I) =] lim f ; f (b)],
a
• lorsque I =]a; b[, on a f (I) =] lim f ; lim f [.
a b
Preuve : Montrons par exemple le cas où I = [a; b[, on sait que J = f (I) est un intervalle car f est continue sur I. La borne
de droite de J est la limite de f en b (finie ou +i n f t y, la limite non atteinte car la monotonie est stricte), la borne de
gauche de J est f (a) qui le minimum de f , donc f (I) = [ f (a); lim f [. Les autres cas se traitent de la même façon, on a
b
évidemment un énoncé analogue lorsque f est strictement décroissante.
Attention !
Lorsque la monotonie n’est pas stricte, il se peut que les limites aux bornes exclues soit atteintes.
MO
2) Monotonie et continuité
Théorème 12.7
Si f : I → R est monotone sur l’intervalle I et si f (I) est un intervalle, alors f est nécessairement
continue sur I.
Preuve : Quitte à changer f en − f , on peut supposons f croissante sur I. Soit a ∈ I un élément de I qui n’est pas la
borne inférieure de I. Si x ∈ I avec x < a, alors f (x) 6 lim
−
f 6 f (a), ce qui entraîne que lim
−
f ∈ f (I). D’autre part, si x > a,
a a
alors f (x) > f (a). On en déduit que l’intervalle ] lim
−
f , f (a)[ est inclus dans f (I) mais il ne contient aucun élément de
a
f (I), cet intervalle est donc vide, i.e. lim
−
f = f (a), ce qui prouve que f est continue à gauche en a. Le raisonnement est
a
analogue pour montrer la continuité à droite en a (si a n’est pas la borne de droite de I).
1. HEINE Heinrich Eduard (1821 – 1881) : mathématicien allemand qui travailla sur la théorie des fonctions.
Remarque 12.5 – Ce théorème énonce une réciproque du théorème des valeurs intermédiaires, mais elle n’est
valable que pour les fonctions monotones.
NE
Théorème 12.8
Si f : I → R est continue sur l’intervalle I et injective, alors f est strictement monotone.
Preuve : Soient a < b deux éléments de I, f étant injective, f (a) 6= f (b), quitte à changer f en − f , on peut supposer
f (a) < f (b), montrons alors que f est strictement croissante sur I :
– Étape 1 : soit x ∈]a; b[, si f (x) > f (b), alors un réel c ∈] f (b); f (x)[ aura un antécédent dans ]x; b[ (théorème des
valeurs intermédiaires), et un antécédent dans ]a; x[ car on a aussi c ∈] f (a); f (x)[, ce qui contredit l’injectivité
de f , donc f (x) < f (b). De la même façon, on montre que f (x) > f (a). En conclusion, si x ∈]a; b[, alors f (a) <
f (x) < f (b).
– Étape 2 : soit x ∈ I avec x < a, si f (x) > f (b) alors d’après l’étape 1 (appliquée à − f ), on devrait avoir f (x) >
f (a) > f (b) ce qui est absurde, donc f (x) < f (b), mais alors l’étape 1 (en échangeant a et x) nous dit que
f (x) < f (a) < f (b). En conclusion, si x < a alors f (x) < f (a).
AIG
– Étape 3 : soit x ∈ I avec x > b, comme ci-dessus, on montre que f (x) > f (b).
– Étape 4 : soient x < y deux éléments de I :
• Si x < y 6 a : on sait que f (x) < f (a), mais alors l’étape 1 entraîne que f (x) < f (y).
• Si x 6 a < y : on sait alors que f (x) 6 f (a) < f (y), donc f (x) < f (y).
• Si a < x < y : alors on sait que f (a) < f (y), mais alors l’étape 1 entraîne que f (x) < f (y).
Dans tous les cas, f (x) < f (y), f est strictement croissante.
f˜−1 : f (I) → I
x 7→ y défini par y ∈ I et f (y) = x
NT
De plus, la bijection a le même sens de variation que f , en effet, supposons f croissante et soient y < y 0 deux
éléments de f (I), alors il existe x, x 0 ∈ I, tels que f (x) = y et f (x 0 ) = y 0 ; si on avait x > x 0 alors on aurait y > y 0
ce qui est contradictoire, donc x < x 0 i.e. f˜−1 (y) < f˜−1 (y 0 ).
D’autre part, dans un repère orthonormé du plan, on a :
½ ½
x ∈ f (I) y ∈I
M(x, y) ∈ C f˜−1 ⇐⇒ ⇐⇒ ⇐⇒ M0 (y, x) ∈ C f .
y = f˜−1 (x) f (y) = x
On en déduit que les courbes représentatives des fonctions f et f˜−1 sont symétriques par rapport à la
première bissectrice.
Le théorème suivant apporte une précision sur la continuité de la réciproque :
MO
Théorème 12.9
Si f : I → R est strictement monotone sur l’intervalle I, alors f induit une bijection de I sur J = f (I). Si
de plus f est continue sur I, alors la bijection réciproque est continue sur J.
Preuve : I étant un intervalle et f continue, l’ensemble J = f (I) est un intervalle, donc la bijection réciproque f˜−1 est
monotone et transforme l’intervalle J en l’intervalle I, d’après un des théorèmes précédents, f˜−1 est continue sur J.
1) Continuité
Soit f : I → C une fonction à valeurs complexes, on pose u = Re( f ) et v = Im( f ).
Définition 12.5
On dira que f est continue sur I lorsque lim f = f (t 0 ). L’ensemble des fonctions continues sur I est
t0
NE
noté C 0 (I, C).
2) Propriétés
Compte tenu de la définition, on retrouve des propriétés analogues au cas réel, à une exception près.
AIG
– On retrouve les mêmes théorèmes généraux, en particulier C 0 (I, C) est une C-algèbre.
– Si f est continue sur I, alors les fonctions f et | f | aussi.
– Si f : [a; b] → C est continue sur le segment [a; b], alors f est bornée et atteint ses bornes, c’est à dire, il
existe t 0 , t 1 ∈ [a; b] tels que :
| f (t 0 )| = sup | f (t )| et f (t 1 )| = inft ∈[a;b] | f (t )|.
t ∈[a;b]
En effet : la fonction | f | est continue sur [a; b] et à valeurs réelles, on sait donc qu’elle admet un
minimum et un maximum.
– Si f : [a; b] → C, est continue sur le segment [a; b], alors f est uniformément continue (théorème de
Heine). p
En effet : cela découle de l’égalité : | f (t ) − f (t 0 )| = |u(t ) − u(t 0 )|2 + |v(t ) − v(t 0 )|2 , et du théorème de
Heine pour les fonctions à valeurs réelles.
Dérivation
Sommaire
AIG
I Dérivée première . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
2) Théorème généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3) Dérivabilité à gauche et à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4) Dérivée d’une bijection réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
II Applications de la dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
1) Théorème de Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
2) Les accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
3) Sens de variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
III Dérivées successives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
1) Classe d’une application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
2) Formule de Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3) Classe d’une composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
NT
4) Classe d’une réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
3) Classe d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
I DÉRIVÉE PREMIÈRE
1) Définition
Origine géométrique :
MO
f (t ) − f (t 0 )
M y= (x − t 0 ) + f (t 0 )
f (t ) t − t0
Lorsque l’on rapproche t de t 0 , cette droite pi-
vote autour du point M0 et, lorsque la courbe est
régulière, semble rapprocher d’une position « li-
M0 mite » qui nous définirons comme la tangente au
f (t 0 ) point M0 . Le coefficient directeur de cette droite
« limite » doit être la limite lorsque t tend vers t 0
t t0
du coefficient directeur de la sécante, c’est dire
f (t )− f (t )
lim t −t0 0 .
t →t 0
Définition 13.1
Soit f : I → R une fonction et soit t 0 ∈ I, on dit que f est dérivable en t 0 lorsque la fonction : t 7→
NE
f (t )− f (t 0 )
t −t 0 admet une limite finie en t 0 . Si c’est le cas, cette limite est notée f 0 (t 0 ) et appelée nombre
dérivé de f en t 0 . Lorsque f est dérivable en tout point de I on dit que f est dérivable sur I et la
df
fonction de I vers R qui à t associe f 0 (t ) est appelée dérivée de f sur I, on la note f 0 ou bien d t .
L’ensemble des fonctions dérivables sur I est noté D(I, R). Si le plan est muni d’un repère orthonormé
et si f est dérivable en t 0 , la droite d’équation y = f 0 (t 0 )(x − t 0 )+ f (t 0 ) est appelée tangente à la courbe
au point d’abscisse t 0 . Si le taux d’accroissement de f en t 0 a une limite infinie et si f est continue en
t 0 , alors on dit que la courbe admet une tangente verticale au point d’abscisse t 0 , d’équation x = t 0 .
Remarque 13.1 – Les fonctions trigonométriques, logarithme, exponentielle, polynomiales et rationnelles sont
dérivables sur leur ensemble de définition. Mais :
AIG
Attention !
La fonction valeur absolue et la fonction x 7→ x α avec 0 < α < 1, ne sont pas dérivables en 0.
2) Théorème généraux
NT
Théorème 13.2 (Dérivabilité et continuité)
Si f est dérivable en t 0 , alors f est continue en t 0 mais la réciproque est fausse.
Preuve : Il suffit d’appliquer la définition équivalente ci-dessus pour voir que lim f = f (t 0 ). Pour la réciproque, on a par
t0
exemple la fonction t 7→ |t | qui est continue en 0 mais non dérivable.
– (α f )0 = α f 0 . ³ ´0
−f 0
• Si f est dérivable sur I et ne s’annule pas alors 1f est dérivable sur et 1f = f 2 .
• Si f est dérivable sur I et si g est dérivable sur J avec Im( f ) ⊂ J, alors g ◦ f est dérivable sur I et
(g ◦ f )0 = f 0 × [g 0 ◦ f ].
Preuve : Les deux premiers points ne posent pas de difficultés, passons au troisième : soit x 0 = f (t 0 ), posons :
( g (x)−g (x
0)
x−x 0 si x 6= x 0
h(x) = 0
g (x 0 ) si x = x 0
g ( f (t ))−g ( f (t 0 )) f (t )− f (t )
alors h est continue en x 0 et pour t 6= t 0 on a : t −t 0 = h[ f (t )] × t −t0 0 , même si f (t ) = f (t 0 ), comme f est
g ( f (t ))−g ( f (t 0 ))
continue en t 0 , on a : lim t −t 0 = h(x 0 ) × f 0 (t 0 ) = f 0 (t 0 ) × g 0 ( f (t 0 )).
t →t 0
Du troisième point découlent les formules de dérivation usuelles :
Fonction Dérivée
sin(u) u 0 cos(u)
cos(u) −u 0 sin(u)
NE
u0
tan(u) u 0 (1 + tan(u)2 ) = cos(u) 2
0
sh(u) u ch(u)
ch(u) u 0 sh(u)
u0
th(u) u 0 (1 − th(u)2 ) = ch(u) 2
eu ue 0 u
u0
ln(|u|) u
uα 0 α−1
αu u
Remarque 13.2 – Il découle des théorèmes généraux que pour les opérations usuelles sur les fonctions D(I, R)
est un anneau et un R-espace vectoriel.
AIG
FExercice 13.1
(
x 2 sin( x1 ) si x 6= 0
1/ Étudier la dérivabilité de : f (x) = .
0 si x = 0
2/ Étudier la dérivabilité de : f (x) = |x ln(|x|)|.
Définition 13.2
Soit f : I → R une fonction, et soit t 0 ∈ I :
• Si t 0 6= inf(I) : on dit que f est dérivable à gauche en t 0 lorsque le taux d’accroissement de f a une
limite finie à gauche en t 0 . Si c’est le cas, cette limite est notée f g0 (t 0 ) et la demi-droite d’équation
(
y = f g0 (t 0 )(x − t 0 ) + f (t 0 )
, est appelée demi-tangente à la courbe au point d’abscisse t 0 .
x 6 t0
NT
• Si t 0 6= sup(I) : on dit que f est dérivable à droite en t 0 lorsque le taux d’accroissement de f a une
limite finie à droite en t 0 . Si c’est le cas, cette limite est notée f d0 (t 0 ) et la demi-droite d’équation
(
y = f d0 (t 0 )(x − t 0 ) + f (t 0 )
, est appelée demi-tangente à la courbe au point d’abscisse t 0 .
x > t0
ZExemples :
– La fonction valeur absolue est dérivable à gauche en 0, et f g0 (0) = −1, elle est dérivable à droite en 0 et
f d0 (0) = 1, mais elle n’est pas dérivable en 0 car −1 6= 1, on dit que le point de la courbe d’abscisse 0 est
un point anguleux.
p
– La fonction f (t ) = |t | n’est pas dérivable en 0, le taux d’accroissement tend vers +∞ en 0+ et vers
−∞ en 0− , on dit que le point de la courbe d’abscisse 0 est un point de rebroussement de première
MO
espèce.
Théorème 13.4
Soit t 0 un point intérieur à I, f est dérivable en t 0 ssi f est dérivable à gauche et à droite en t 0 avec
f g0 (t 0 ) = f d0 (t 0 ).
Théorème 13.5
Si f : I → R est une fonction continue strictement monotone, alors f induit une bijection de I sur
NE
J = Im( f ). Soit y 0 = f (t 0 ) ∈ J (t 0 ∈ I), si f est dérivable en t 0 et si f 0 (t 0 ) 6= 0, alors la bijection réciproque,
1 1
φ, est dérivable en y 0 et φ0 (y 0 ) = f 0 (t 0)
= f 0 ◦φ(y 0)
. Si f est dérivable en t 0 et f 0 (t 0 ) = 0, alors φ n’est pas
dérivable en y 0 mais la courbe représentative de φ admet une tangente verticale au point d’abscisse
y0.
φ(y)−φ(y 0 ) t −t 0
Preuve : Soit t 0 ∈ I et y 0 = f (t 0 ), pour y ∈ J \{y 0 }, on a y−y 0 = f (t )− f (t 0 ) en posant t = φ(y), φ étant continue, lorsque
t −t 0 1
y t oy 0 , on a t → t 0 et donc f (t )− f (t 0 ) → f 0 (t 0 )
car f 0 (t 0 ) 6= 0. Ce qui prouve le premier résultat.
t −t 0
Si f 0 (t 0 ) = 0, comme f est monotone la fraction f (t )− f (t 0 ) garde un signe constant, donc sa limite lorsque y → y 0 est
infinie, ce qui prouve le second résultat.
Remarque 13.3 –
– Si f : I → J est bijective, continue, dérivable et si f 0 ne s’annule pas sur I, alors d’après le théorème
AIG
précédent, f −1 est dérivable sur J et on a la formule :
¢0 1
f −1 =
¡
.
f f −1
0◦
– Si f n’est pas dérivable en t 0 mais si sa courbe a une tangente verticale en ce point, alors f −1 est dérivable
¢0
en y 0 = f (t 0 ) et f −1 (y 0 ) = 0 (car le taux d’accroissement de f en t 0 a une limite infinie en t 0 ).
¡
ZExemples :
– La fonction ln :]0; +∞[→ R est une fonction continue, strictement croissante, dérivable et sa dérivée ne
s’annule pas. Sa bijection réciproque, la fonction exponentielle, est donc dérivable sur R et :
1
∀ x ∈ R, exp(x)0 = = exp(x).
ln0 ◦ exp(x)
– La fonction f : [− π2 ; π2 ] → [−1; 1] définie par f (x) = sin(x) est bijective, continue, dérivable et sa dérivée
( f 0 (x) = cos(x)) ne s’annule pas sur ] − π2 ; π2 [, donc la bijection réciproque arcsin, est dérivable sur
NT
] − 1; 1[ et :
1 1 1
arcsin0 (x) = 0 = =p .
f (arcsin(x)) cos(arcsin(x)) 1 − x2
– La fonction f : [0; π] → [−1; 1] définie par f (x) = cos(x) est bijective, continue, dérivable et sa dérivée
( f 0 (x) = − sin(x)) ne s’annule pas sur ]0; π[, donc la bijection réciproque arccos, est dérivable sur ]−1; 1[
et :
1 −1 −1
arccos0 (x) = 0 = =p .
f (arccos(x)) sin(arccos(x)) 1 − x2
Par contre la fonction arccos n’est pas dérivable en ±1 (une tangente verticale en ces points).
– La fonction f : ] − π/2; π/2[→ R définie par f (x) = tan(x) est bijective, continue, dérivable et sa dérivée
( f 0 (x) = 1 + tan(x)2 ) ne s’annule pas, donc la bijection réciproque arctan, est dérivable sur R et :
MO
1 1 1
arctan0 (x) = = = .
f 0 (arctan(x)) 1 + tan2 (arctan(x)) 1 + x 2
II APPLICATIONS DE LA DÉRIVATION
1) Théorème de Rolle
Théorème 13.6
Soit f : [a; b] → R dérivable sur ]a; b[ et soit t 0 ∈]a; b[. Si f admet un extremum local en t 0 , alors
f 0 (t 0 ) = 0, mais la réciproque est fausse.
f (t )− f (t 0 )
Preuve : Supposons que f présente un maximum local en t 0 , alors à gauche en t 0 on a t −t 0 > 0, d’où par passage à
f (t )− f (t 0 )
la limite en t 0 : f 0 (t 0 ) > 0. À droite en t 0 on a : t −t 0
0
6 0, d’où par passage à la limite en t 0 : f (t 0 ) 6 0, par conséquent
3
f 0 (t 0 ) = 0. Pour la réciproque il suffit de considérer la fonction x 7→ x en 0.
Remarque 13.4 – Dans le théorème ci-dessus, il est essentiel que t 0 ne soit pas une borne de l’intervalle. Par
exemple la fonction f (t ) = 1 + t admet un maximum sur [0; 1] en t 0 = 1 mais f 0 (t 0 ) 6= 0.
NE
Théorème 13.7 (de Rolle 1 )
Si f : [a; b] → R est continue sur [a; b], dérivable sur ]a; b[ et si f (a) = f (b), alors :
il existe c ∈]a; b[, f 0 (c) = 0.
Preuve : Si f est constante alors il n’y a rien à montrer. Si f n’est pas constante, Im( f ) = [m; M] ( f est continue sur le
segment [a; b]) avec m < M. Supposons f (a) 6= M, alors f (b) 6= M or il existe c ∈ [a; b] tel que f (c) = M donc c ∈]a; b[,
d’après la proposition précédente (maximum global en c) on a f 0 (c) = 0. Si f (a) = M alors f (a) 6= m et le même
raisonnement s’applique avec le minimum.
Remarque 13.5 –
– Ce théorème est faux si f n’est pas continue en a ou en b (prendre f (x) = x sur [0; 1[ et f (1) = 0).
– Ce théorème est faux si f est à valeurs complexes, par exemple f (t ) = e i t , on a f (0) = f (2π) mais
AIG
f 0 (t ) = i e i t ne s’annule jamais.
FExercice 13.2 Soit f : R → R une fonction dérivable qui admet n racines distinctes, alors f 0 admet au moins n −1 racines
distinctes.
Solution 13.2 Il suffit d’appliquer le théorème de Rolle à la fonction f entre deux racines consécutives. On montre
ainsi qu’entre deux racines de f il y a toujours une racine de f 0 .
φ(a) = a f (b) − b f (a) = φ(b), d’après le théorème de Rolle, il existe c ∈]a; b[ tel que φ0 (c) = 0, ce qui donne la relation.
Remarque 13.6 –
– De même, si f et g sont continues sur [a; b] et dérivables sur ]a; b[, il existe c ∈]a; b[ tel que :
( f (b) − f (a))g 0 (c) = (g (b) − g (a)) f 0 (c).
f (b)− f (a)
– L’égalité s’écrit aussi : f 0 (c) = b−a , ce qui signifie géométriquement qu’il existe un point de la courbe
(d’abscisse c) où la tangente est parallèle à la corde définie par le point d’abscisse a et le point d’abscisse
b.
f (b)− f (a)
– Autre preuve : soit g la fonction affine prenant la même valeur que f en a et b, g (x) = b−a (x − a) +
f (a). On a f (a) − g (a) = f (b) − g (b), d’après le théorème de Rolle il existe c ∈]a; b[ tel que f 0 (c) = g 0 (c) ce
f (b)− f (a)
qui donne f 0 (c) = b−a .
MO
a c1 c2 b
NE
∀ x ∈]a; b[, m 6 f 0 (x) 6 M, alors :
m(b − a) 6 f (b) − f (a) 6 M(b − a).
AIG
g : x 7→ f (x) − x s’annule car continue et change de signe), on a alors |u n+1 − `| = | f (u n ) − f (`)| 6 k|u n − `|, on en
déduit que |u n − `| 6 k n |u 0 − `| → 0 car |k| < 1, et donc u n → `.
p p
ZExemple : Pour tout x, y de [1; +∞[, on a | x − y| 6 12 |x − y|. ∀x > 0, x+1
1
6 ln(x + 1) − ln(x) 6 x1 .
Preuve : D’après l’égalité des accroissements finis, pour t ∈ [a; b[, il existe c t ∈]t ; b[ tel que f (b)− f (t ) = (b−t ) f 0 (c t ) = (b−
f (t )− f (b) f (t )− f (b)
t ) f 0 (c t ), d’où t −b = f 0 (c t ), mais si t tend vers b, alors c t tend vers b et donc f 0 (c t ) tend vers `, d’où : lim t −b = `,
t →b
ce qui termine la preuve.
NT
Remarque 13.7 – Si f 0 n’a pas de limite en b, on ne peut rien dire en général.
On a un résultat analogue pour f : [a; b] → R continue sur [a; b], dérivable sur ]a; b], avec lim f 0 (t ) = `.
t →a
3) Sens de variation
Théorème 13.11
◦
MO
Soit f : I → R une fonction continue sur l’intervalle I, et dérivable sur I privé des ses bornes (noté I,
intérieur de I), on a les résultats suivants :
◦
• f est croissante si et seulement si ∀ t ∈ I, f 0 (t ) > 0.
◦
• f est décroissante si et seulement si ∀ t ∈ I, f 0 (t ) 6 0.
◦
• f est constante si et seulement si ∀ t ∈ I, f 0 (t ) = 0.
◦
• f est strictement croissante si et seulement si ∀ t ∈ I, f 0 (t ) > 0 et il n’existe aucun intervalle ouvert
non vide inclus dans I sur lequel f 0 est constamment nulle.
◦
• f est strictement décroissante si et seulement si ∀ t ∈ I, f 0 (t ) 6 0 et il n’existe aucun intervalle ouvert
non vide inclus dans I sur lequel f 0 est constamment nulle.
◦
Preuve : Si f est croissante sur I, soit t 0 ∈ I, le taux d’accroissement de f en t 0 est toujours positif, donc par passage à la
◦
limite, on a f 0 (t 0 ) > 0. Réciproquement, si f 0 > 0 sur I, soit t < t 0 deux éléments de I, d’après l’égalité des accroissements
finis, il existe c compris entre t et t 0 (strictement) tel que f (t ) − f (t 0 ) = f 0 (c)(t − t 0 ) 6 0, donc f (t ) 6 f (t 0 ) i.e. f est
NE
croissante. Pour f décroissante on applique ce qui précède à − f . Pour f constante, il suffit de dire que f est à la fois
croissante et décroissante.
◦
Si f est strictement croissante, alors on sait que f 0 > 0 sur I. Si f 0 est nulle sur un intervalle J ⊂ I, alors f est
◦
constante sur J, ce qui est absurde. Réciproquement, si ∀ t ∈ I, f 0 (t ) > 0 et il n’existe aucun intervalle ouvert non vide
inclus dans I sur lequel f 0 est constamment nulle, soit t < t 0 deux éléments de I, on sait que f (t ) 6 f (t 0 ), si on avait
f (t ) = f (t 0 ) alors ∀ c ∈ [t ; t 0 ], f (t ) = f (c) = f (t 0 ), donc f est constante sur [t ; t 0 ], ce qui entraîne que f 0 est nulle sur
]t ; t 0 [ : absurde, donc f (t ) < f (t 0 ) i.e. f est strictement croissante.
1
Remarque 13.8 – Ce théorème est faux si I n’est pas intervalle, par exemple la fonction f (t ) = t est dérivable
sur R∗ avec f 0 < 0, mais f n’est pas monotone sur R∗ .
AIG
1) Classe d’une application
Définition 13.3
Soit f : I → R une fonction et soit n ∈ N∗ . On dit que f est de classe C n sur I lorsque f est n fois
dérivable sur I et que la dérivée n e de f est continue sur I. L’ensemble des fonctions de classe C n sur I
dn f
est noté C n (I, R). La dérivée n e de f est notée f (n) où d t n . Par convention, on pose f (0) = f , on a alors
0
∀ n ∈ N, f (n+1) = f (n) .
¡ ¢
Remarque 13.9 –
– C n+1 (I, R) ⊂ C n (I, R).
– Si f ∈ C n (I, R) avec n > 1, alors ∀ k ∈ J0; n K , f (k) ∈ C n−k (I, R).
NT
ZExemples :
1 (−1)n n!
– ∀ n ∈ N, f (t ) = t est de classe C n sur R∗ et pour n > 0, f (n) (t ) =
t n+1
.
n−1
– ∀n ∈ N, f (t ) = ln(t ) est de classe C sur ]0; +∞[ et pour n > 1, f (t ) = (−1) t n(n−1)! .
n (n)
Définition 13.4
Lorsque f est de classe C n pour tout entier n, on dit que f est de classe C ∞ , l’ensemble des ces
T n
fonctions est noté C ∞ (I, R), et on a donc C ∞ (I, R) = C (I, R).
n∈N
Remarque 13.10 –
MO
ZExemples :
– Toute fonction polynomiale est C ∞ sur R (car la dérivée d’un polynôme est un polynôme).
– Toute fonction rationnelle est C ∞ sur son ensemble de définition (car la dérivée d’une fonction
rationnelle est une fonction rationnelle).
– Les fonctions ln, exp, cos, sin et tan sont C ∞ sur leur ensemble de définition.
FExercice 13.3 Étudier la classe sur R de la fonction f : x 7→ x 2 |x|.
finie en b : ∀k ∈ J0; n K, ∃`k ∈ R, lim f (k) (x) = `k . Alors le prolongement de f obtenu en posant f (b) = `0 ,
x→b
est un prolongement de classe C n sur [a; b], et on a ∀k ∈ J0; n K, f (k) (b) = `k .
NE
Preuve : Par récurrence sur n. Pour n = 0, c’est un prolongement par continuité de f en b. Supposons le théorème établi
au rang n et que f vérifie les hypothèses au rang n + 1, en appliquant (HR), le prolongement de f obtenu en posant
f (b) = `0 , est un prolongement de classe C n sur [a; b], et on a ∀k ∈ J0; n K, f (k) (b) = `k . Soit g = f (n) , alors g est continue
sur [a; b], de classe C 1 sur [a; b[ et lim g 0 (x) = `n+1 ∈ R, on en déduit que g est dérivable en b et que g 0 (b) = `n+1 , ce qui
x→b
entraîne que g 0 est continue en b. Finalement le prolongement de f est bien de classe C n+1 sur [a; b], et f (k) (b) = `k
pour k ∈ J0; n + 1K.
2) Formule de Leibniz
AIG
• f + g est de classe C n sur I et ( f + g )(n) = f (n) + g (n) .
• ∀λ ∈ R, λ. f est de classe C n sur I et (λ. f )(n) = λ. f (n) .
¢(n) Pn ¡ ¢
n (k)
• f × g est de classe C n sur I et on a la formule (de Leibniz) : f × g × g (n−k) .
¡
= k f
k=0
Preuve : Pour n = 0 le théorème est vrai. Supposons le théorème démontré au rang n > 0 avec la formule de Leibniz, et
¢(n) P n ¡ ¢
n (k)
supposons que f et g sont de classe C n+1 . En particulier f et g sont C n , donc f × g aussi et f × g
¡
= k f ×
k=0
¢(n)
g (n−k) , on en déduit donc que f × g
¡
est dérivable sur I (somme de produits de fonctions dérivables) et sa dérivée est
¢(n+1) P n ¡ ¢ n ¡ ¢ n ¡¡ ¢ ¡
n (k+1) (n−k) n (k) n n ¢¢ (k)
× g (n+1−k) , ce qui donne f (n+1) × g + f × g (n+1) +
¡ P P
f ×g = k f ×g + k f k + k−1 f ×
k=0 k=0 k=1
n+1
P ¡n+1¢ (k)
(n+1−k) (n+1−k)
g , c’est à dire k f ×g , ce qui donne la formule au rang n + 1, de plus cette somme est une somme
k=0
n+1
de fonctions continues, ce qui prouve que f × g est bien de classe C sur I.
NT
Théorème 13.14
∀ n ∈ N ∪ {+∞}, C n (I, R) est un R-espace vectoriel et un anneau.
Théorème 13.15
Soient f : I → R et g : J → R deux fonctions de classe C n avec Im( f ) ⊂ J, alors g ◦ f est de classe C n sur
I. En particulier, si f et g sont C ∞ alors g ◦ f aussi.
MO
Preuve : Le théorème est vrai pour n = 0 (composée de deux fonctions continues), supposons le vrai au rang n > 0 et
supposons f et g de classe C n+1 , comme n + 1 > 1, f et g sont dérivables, donc g ◦ f est dérivable avec la formule
(g ◦ f )0 = f 0 × g 0 ◦ f , d’après l’hypothèse de récurrence, g 0 ◦ f est de classe C n (car g 0 et f sont de classe C n ), or f 0 est
également de classe C n , par conséquent f 0 × g 0 ◦ f est de classe C n , ce qui signifie que g ◦ f est de classe C n+1 .
Remarque 13.11 –
– Il existe une formule qui exprime (g ◦ f )0 en fonction des dérivées de f et de g , mais ce n’est pas une
formule simple.
– La fonction inverse g : x 7→ x1 est C ∞ sur R∗ , si f : I → R est une fonction de classe C n qui ne s’annule,
alors la composée, i.e. la fonction 1f , est de classe C n (même si n = ∞).
– On retrouve donc les mêmes théorèmes généraux que pour la continuité et la dérivabilité.
Théorème 13.16
Soit f : I → J une bijection de I sur J = Im( f ), de classe C n avec n ∈ N∗ ∪ {∞}. Si f 0 ne s’annule pas sur
NE
I, alors la bijection réciproque f −1 est de classe C n sur J (i.e. de même classe que f ).
1
Preuve : On sait déjà que f −1 est dérivable sur J et que ( f −1 )0 = f 0 ◦ f −1
, on voit alors que f −1 est de classe C 1 sur J, le
théorème est donc vrai pour n = 1, supposons le vrai au rang n > 1 et supposons que f est C n+1 , par hypothèse de
récurrence f −1 est de classe C n , mais alors f 0 ◦ f −1 est une fonction de classe C n qui ne s’annule pas, donc son inverse
est de classe C n , i.e. ( f −1 )0 est C n , ce qui signifie que f −1 est de classe C n+1 sur J.
ZExemples :
– Les fonctions arcsin et arccos sont de classe C ∞ sur ] − 1; 1[.
– La fonction arctan est de classe C ∞ sur R.
AIG
1) Définition
On adopte la même définition que dans le cas réel :
Définition 13.5
f (t )− f (t )
On dira que f : I → C est dérivable en t 0 ∈ I si et seulement si la fonction t 7→ t −t0 0 définie sur
I \ {t 0 }, admet une limite finie (dans C) en t 0 . Si celle-ci existe, elle est notée f 0 (t 0 ). L’ensemble des
fonctions dérivables sur I est noté D(I, C).
2) Propriétés
À retenir
Il découle de ce théorème, que lorsque f est dérivable sur I, on a : Re( f 0 ) = Re( f )0 et Im( f 0 ) = Im( f )0 .
MO
Comme la caractérisation nous ramène aux fonctions à valeurs réelles, on peut déduire les propriétés des
fonctions dérivables à valeurs complexes :
– On retrouve les mêmes théorèmes généraux, à savoir :
• Toute fonction f : I → C dérivable est continue (réciproque fausse).
• Si f , g : I → C sont dérivables, alors f + g , f × g et λ f (λ ∈ C) sont dérivables avec les formules :
( f + g )0 = f 0 + g 0 , ( f × g )0 = f 0 × g + f × g 0 , (λ f )0 = λ f 0 .
g0
• Si g : I → C est dérivable et ne s’annule pas, alors g1 est dérivable sur I et ( g1 )0 = − g 2 . On en déduit que
³ ´0
f f 0 ×g − f ×g 0
si f est également dérivable sur I alors g = g2
.
• Si f : I → R et g : J → C sont dérivables avec Im( f ) ⊂ J, alors g ◦ f est dérivable sur I et (g ◦ f )0 =
f 0 ×g0 ◦ f .
• Si f : I → C est dérivable alors exp( f ) est dérivable sur I et [exp( f )]0 = f 0 × exp( f ).
– Cependant, le théorème de Rolle n’est plus valable, par exemple la fonction f (t ) = exp(i t ) est dérivable
sur R et f 0 (t ) = i exp(i t ), on a f (0) = f (2π) mais f 0 ne s’annule pas. Par conséquent l’égalité des
accroissements finis n’est plus valable non plus, mais on conserve les inégalités.
NE
fonction C 1 sur [a; b], alors :
| f (b) − f (a)| 6 |g (b) − g (a)|.
Remarque 13.12 –
– Si ∀ t ∈]a; b[, | f 0 (t )| 6 M, alors en prenant la fonction g (t ) = Mt , et en appliquant le théorème ci-dessus,
on obtient :
| f (b) − f (a)| 6 M|b − a|.
– Sous les mêmes hypothèses du théorème, on a ∀x, y ∈ [a; b], | f (x) − f (y)| 6 |g (x) − g (y)|.
ZExemple : Avec f (t ) = exp(αt ) où α = a + i b ∈ C avec a 6= 0, on a | f 0 (t )| = |α| exp(at ) = g 0 (t ), par conséquent :
|α|
AIG
∀ t , t 0 ∈ R, | exp(αt ) − exp(αt 0 )| 6 | exp(at ) − exp(at 0 )|.
|a|
Développements limités
AIG
Sommaire
I Développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2) Formule de Taylor-Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
3) Développements usuels en 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
II Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
1) Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
2) Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
3) Développements usuels (compléments) . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
III Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
1) Recherche d’une limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
2) Étude locale d’une fonction au voisinage d’un point . . . . . . . . . . . . . . . . . . . . 132
3) Étude locale au voisinage de l’infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
4) Recherche d’un équivalent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
NT
I DÉVELOPPEMENTS LIMITÉS
1) Définition
Définition 14.1
Soit f : I → C une fonction et soit a ∈ I ou une borne réelle de I. Soit n ∈ N, on dit que f admet un
développement limité d’ordre n en a (ou un dln (a)) lorsqu’il existe un polynôme P de degré au plus n
tel que :
f (x) = P(x − a) + o (x − a)n .
¡ ¢
a
MO
Si c’est le cas, alors le polynôme P(x − a) est appelé partie régulière du dln (a).
Remarque 14.1 –
– On notera Cn [X] l’ensemble des polynômes de degré au plus n et à coefficients complexes.
n
a k (x − a)k , dans la pratique on ne développe jamais les termes (x − a)k .
P
– On a P(x − a) =
k=0
– Le reste du dln (a) , c’est à dire o ((x − a)n ) peut aussi se mettre sous la forme (x − a)n ε(x) où lim ε(x) = 0.
a x→a
– C’est le reste qui donne l’ordre du dln (a).
2) Formule de Taylor-Young
NE
appelle polynôme de Taylor de f en a à l’ordre n, la fonction polynomiale notée Tn, f ,a définie par :
n f (k) (a)
P k
Tn, f ,a (x) = k! (x − a) .
k=0
La différence f (x) − Tn, f ,a (x) est notée Rn, f ,a (x) est appelée reste de f en a à l’ordre n.
£ ¤0
Remarque 14.2 – Si f est n + 1 fois dérivable en a, alors Tn+1, f ,a (x) = Tn, f 0 ,a (x).
AIG
k=0
f (x)−Tn, f ,a (x)
Preuve : Il s’agit de montrer que lim (x−a)n = 0. Par récurrence sur n : pour n = 0 il s’agit de la définition de
x→a
continuité en a. Supposons le théorème démontré au rang n, et supposons f de classe C n+1 sur I, supposons a < x
et pour t ∈ [a; x] posons h(t ) = f (t ) − Tn+1, f ,a (t ), on a h dérivable et h 0 (t ) = f 0 (t ) − Tn, f 0 ,a (t ). On se donne ε > 0,
l’hypothèse de récurrence appliquée à f 0 permet d’affirmer qu’il existe un voisinage V de a tel que t ∈ V ∩ I =⇒
n+1
|h 0 (t )| 6 ε(t − a)n = g 0 (t ) avec g (t ) = ε (t −a)
n+1 , l’inégalité des accroissements finis généralisée nous donne alors pour
n+1
x ∈ V : |h(x) − h(a)| 6 g (x) − g (a), c’est à dire x ∈ V ∩ I =⇒ | f (x) − Tn+1, f ,a (x)| 6 ε (x−a)
n+1 6 ε(x − a)n+1 , ce qu’il fallait
démontrer. Le raisonnement est similaire pour x < a.
Remarque 14.3 – Sous les mêmes hypothèses, on peut écrire qu’il existe une fonction ε telle que :
f (x) = Tn, f ,a (x) + (x − a)n ε(x) avec lim ε(x) = 0.
x→a
Théorème 14.2
NT
Soit f : I → C et soit a ∈ I, si f est de classe C n sur l’intervalle I, alors f admet un dln (a) et sa partie
régulière est Tn, f ,a (x), c’est à dire son polynôme de Taylor en a à l’ordre n. Si f est de classe C ∞ sur I,
alors f admet un dl en tout point de I et à n’importe quel ordre.
3) Développements usuels en 0
À retenir
n
xk
+ o (x n ).
P
– exp(x) = k!
k=0 0
n k
MO
(−1)k−1 xk + o (x n ).
P
– ln(1 + x) =
k=1 0
n 2k+1
x
(−1)k (2k+1)! + o x 2n+2 (il s’agit du dl2n+2 (0)).
P ¡ ¢
– sin(x) =
k=0 0
n 2k
x
(−1)k (2k)! + o x 2n+1 (il s’agit d’un dl2n+1 (0)).
P ¢ ¡
– cos(x) =
k=0 0
n
x 2k+1 2n+2
P ¡ ¢
– sh(x) = (2k+1)! +o x (il s’agit du dl2n+2 (0)).
k=0 0
n
x 2k
+ o x 2n+1 (il s’agit d’un dl2n+1 (0)).
P ¡ ¢
– ch(x) = (2k)!
k=0 Ã !0 Ã !
n α α α(α − 1) · · · (α − k + 1)
– (1 + x)α = x k + o x n , où
P ¡ ¢
= , formule des coefficients du binôme
k=0 k 0 k k!
n
1
(−1)k x k + o (x n ).
P
généralisée. En particulier : 1+x =
k=0 0
II PROPRIÉTÉS
1) Généralités
NE
Théorème 14.3 (troncature)
Si f admet un dln (a) alors pour tout entier p ∈ J0; n K, f admet un dlp (a) dont la partie régulière
s’obtient en tronquant la partie régulière du dln (a) au degré p.
Preuve : Par récurrence sur n. Au rang 0 c’est évident avec un passage à la limite. Supposons l’unicité montrée au rang
AIG
n − 1. Si f a deux dln (a), alors par troncature elle a deux dln−1 (a), ils sont donc égaux, ce qui donne après simplification
αn (x − a)n + o ((x − a)n ) = βn (x − a)n + o ((x − a)n ), en simplifiant par (x − a)n (pour x 6= a), et par passage à la limite en
a a
a, on obtient αn = βn et on a bien l’unicité au rang n.
Changement de variable
On peut toujours se ramener en a = 0 :
– On pose u = x − a, on a alors f (x) = f (u + a) = g (u), d’où :
– Si f est définie au voisinage de ±∞ : on pose u = x1 , on a alors f (x) = f ( u1 ) = g (u). Si g admet un dln (0) ;
alors il existe un polynôme P ∈ Cn [X] tel queg (u) = P(u) + o (u n ), ce qui donne f (x) = P( x1 ) + o x1n , on
¡ ¢
NT
0 ±∞
1
dit alors que f admet un développement asymptotique en x d’ordre n en ±∞, on remarquera que la
partie régulière n’est pas un polynôme en x mais en x1 .
Théorème 14.5
• f admet un dl0 (a) si et seulement si f admet une limite finie en a.
• f admet un dl1 (a) si et seulement si f admet un prolongement continu dérivable en a.
• Si f admet un dln (0), alors la partie régulière a la même parité que f .
Attention !
MO
Une fonction peut avoir un dl2 (a) sans être deux fois dérivable en a.
FExercice 14.1 Soit f (x) = exp(− x12 ) sin(exp( x12 )), montrer que f admet des développements limités à n’importe quel
ordre en 0, mais qu’elle n’est pas deux fois dérivable en 0.
Solution 14.1 On a pour tout entier n, f (x) = o (x n ), donc f admet des dl en 0 à n’importe quel ordre et la partie
0
régulière est nulle, en particulier f se prolonge par continuité en 0 en posant f (0) = 0, et ce prolongement est dérivable
en 0 avec f 0 (0) = 0. Pour x 6= 0, on a f 0 (x) = x23 f (x) − x23 cos(exp( x12 )), or la fonction x 7→ x14 cos(exp( x12 )) n’a pas de limite
f 0 (x)
en 0 (considérer par exemple la suite u n = p 1 ), on en déduit que x n’a pas de limite en 0 et donc que f n’est pas
ln(nπ)
deux fois dérivable en 0.
Plus simplement, on peut montrer que la fonction définie par f (x) = x 3 sin( x1 ) avec f (0) = 0, admet un dl2 (0) (dont
la partie régulière est nulle), mais f 0 n’est pas dérivable en 0, donc f n’est pas deux fois dérivable en 0.
2) Règles de calculs
Théorème 14.6
Si f , g admettent un dln (0), f (x) = P(x) + o (x n ) et g (x) = Q(x) + o (x n ), avec P, Q ∈ Cn [X].
0 0
NE
– DL d’une combinaison linéaire : ∀ λ ∈ C, λ f + g admet un dln (0) dont la partie régulière en λP(x) +
Q(x).
– DL d’un produit : f (x) × g (x) admet un dln (0) dont la partie régulière est [P(x)Q(x)]n (polynôme
P(x) × Q(x) tronqué au degré n).
– DL d’une composée : si lim g (x) = 0, alors f (g (x)) admet un dln (0) dont la partie régulière est
x→0
[P(Q(x))]n .
– Intégration des DL : si f 0 admet un dln (0) dont la partie régulière est P(x), alors f admet un dln+1 (0)
Rx
dont la partie régulière est : f (0) + 0 P(t ) d t .
1
– Inversion d’un DL : si lim f (x) = a 6= 0, alors f (x) admet un dln (0) qui s’obtient en composant le
x→0
1 f (x)−a
dln (0) de 1+u avec celui de a , et en multipliant par a1 .
AIG
Preuve : Donnons un exemple pour la composition avec n = 2 : f (x) = a + bx + c x 2 + x 2 u(x) et g (x) = αx + βx 2 + x 2 v(x),
avec u et v de limite nulle en 0, on en déduit en composant : f (g (x)) = a + b(αx + βx 2 + x 2 v(x))) + c(αx + βx 2 +
v(x))2 + (αx + βx 2 + x 2 v(x))2 u(g (x)), ce qui donne après
¡ ¢avoir développer et regrouper les puissances de x strictement
supérieures à 2 : f (g (x)) = a + bαx + [bβ + cα2 ]x 2 + o x 2 , on peut vérifier que la partie régulière est la troncature au
0
degré 2 de P(Q(x)).
Pour l’intégration : on a f 0 (t ) = P(t ) + t n u(t ) avec lim u(x) = 0. On se donne ε > 0, au voisinage de 0 on aura
x→0
| f 0 (t ) − P(t )| 6R |t |n ε, en appliquant l’inégalité des accroissements finis généralisée, on obtient pour x au voisinage de 0,
x
| f (x) − f (0) − 0 P(t ) d t | 6 ε|x|n+1 , ce qui prouve le résultat.
1 1 1 1 f (x)−a
Pour f (x) : comme a 6= 0, on a f (x) = a 1+ f (x)−a , et a −→ 0, donc la règle de composition s’applique.
a x→0
Attention !
Il n’y a pas de propriété de dérivation de DL. Par exemple, on vérifiera que la fonction définie par f (x) = x 2 sin( x1 )
avec f (0) = 0, admet un dl1 (0) (dont la partie régulière est nulle), mais f 0 n’a pas de limite fine en 0, donc f 0 n’a pas
NT
de dl0 (0).
1 n x n+1 Xn
xk + xk + o xn .
X ¡ ¢
= =
1 − x k=0 1 − x k=0 0
En substituant −x à x, on obtient :
MO
1 n
(−1)k x k + o x n .
X ¡ ¢
=
1 + x k=0 0
1 n
k 2k
X ¡ 2n+1 ¢
= (−1) x + o x c’est un dl2n+1 (0).
1 + x 2 k=0 0
On a : Ã !
n −1/2
1
xk + o xn .
X ¡ ¢
p =
1 + x k=0 k
NE
0
(2kk )
= (−1)k 1×3×...×(2k−1)
¡−1/2¢
Or k k!2k
= (−1)k 4k
, on a finalement :
¡2k ¢
1 n
(−1)k kk x k + o x n .
X ¡ ¢
p =
1 + x k=0 4 0
On en déduit que :
¡2k ¢
1 n
k
x 2k + o x 2n+1 .
X ¡ ¢
p = k
1 − x 2 k=0 4 0
AIG
¡2k ¢
n
k
x 2k+1 + o x 2n+2 .
X ¡ ¢
arcsin(x) = k (2k + 1)
k=0 4
0
et :
¡2k ¢
π Xn
k
x 2k+1 + o x 2n+2 .
¡ ¢
arccos(x) = − k
2 k=0 4 (2k + 1) 0
ZExemples :
– Calculer un dl3 (0) de exp(sin(x)).
3 2 3
On a sin(x) = x − x6 + o x 3 et exp(u) = 1 + u + u2 + u6 + o u 3 . Comme lim sin(x) = 0, on peut appli-
¡ ¢ ¡ ¢
0 0 x→0
quer le théorème de composition, et composer les parties régulières jusqu’à l’ordre 3, ce qui donne
2
exp(sin(x)) = 1 + x + x2 + o x 3 .
¡ ¢
0
– Calculer un dl4 (0) de (1 + sin(x))x .
NT
3
L’expression est égale à exp[x ln(1 + sin(x))]. Un dl3 (0) de sin(x) est sin(x) = x − x6 + o x 3 , et ln(1 + u) =
¡ ¢
u u3
¡ 3¢ x2 x3
¡ 03 ¢
u − 2 + 3 + o u , on obtient par composition, ln(1 + sin(x)) = x − 2 + 6 + o x et donc x ln(1 +
0
2 x3 x4
¡ 4¢ v2
¡ 2¢ 0
sin(x)) = x − 2 + 6 + o x . On a également exp(v) = 1 + v + 2 + o v , d’où par composition :
0 0
3 4
exp[x ln(1 + sin(x))] = 1 + x 2 − x2 + 2 x3 + o x 4 .
¡ ¢
0
– Calculer un dl5 (0) de tan(x) :
3
x5
1
. sin(x) = x − x6 + 120 1
+ o x 5 . D’autre part cos(x) 1
¡ ¢
On a tan(x) = sin(x) × cos(x) = 1+u avec u = cos(x) − 1,
0
2 4
comme u → 0, on pourra donc composer, cos(x) − 1 = − x2 + 24 x 1
+ o x 5 et 1+u = 1 − u + u 2 + o u 2 , ce
¡ ¢ ¡ ¢
0 0
2
x4
1
= 1 + x2 + 5 24 + o x 5 . On effectue ensuite le produit avec le dl de sin(x), ce qui donne
¡ ¢
qui donne : cos(x)
0
3 5
tan(x) = x + x3 + 2x
¡ 5¢
MO
15 + o x .
0
Autre méthode : on a tan(x) = 0 + o (1), d’où 1 + tan(x)2 = 1 + o (1), en intégrant, on obtient tan(x) =
0 0
3
x + o (x). Puis on recommence : 1 + tan(x)2 = 1 + x 2 + o x 2 et donc tan(x) = x + x3 + o x 3 , mais alors
¡ ¢ ¡ ¢
0 0 0
4 3 5
1 + tan(x)2 = 1 + x 2 + 2x3 + o x 4 , et donc tan(x) = x + x3 + 2x
¡ ¢ ¡ 5¢
15 + o x ... etc
0 0
III APPLICATIONS
x
– Calculer lim x 2 ln( 1+x ) + x − 1.
x→+∞
Il s’agit bien d’une forme indéterminée, on se ramène en 0 en posant u = 1/x, on a alors f (x) = f ( u1 ) =
NE
−1
u2
ln(1 + u) + u1 − 1, ce qui donne f ( u1 ) = −1 −1
2 + o (1), et donc la limite cherchée est 2 .
0
AIG
– si a 2 < 0 : c’est la situation inverse.
– si a 2 = 0 : on ne peut rien dire, il faut aller plus loin dans le développement limité. Dans la pratique on
s’arrête au premier terme non nul de degré supérieur ou égal à 2.
x ln(x)
ZExemple : Soit f (x) = x 2 −1
effectuons une étude locale en a = 1 : on pose u = x − 1 d’où f (x) = f (1 + u) =
,
ln(1+u) 2
1
le calcul donne f (x) = f (1 + u) = 12 − u12 + o u 2 . On en déduit que f se prolonge par
¡ ¢
u (1 + u) 2[1+u/2] ,
0
continuité en 1 en posant f (1) = 12 , ce prolongement est dérivable en 1 et f 0 (1) = 0, de plus, au voisinage de 1,
la courbe est en-dessous de la tangente. On a donc un maximum local en 1.
Théorème 14.7
Si f admet un dln (a), alors f (x) est équivalente en a au terme non nul de plus bas degré de la partie
régulière, s’il existe.
Preuve : Soit a p (x − a)p le premier terme non nul, on a alors f (x) = a p (x − a)p + o ((x − a)p ) = (x − a)p [1 + o (1)], ce qui
a a
prouve l’équivalence annoncée.
Remarque 14.4 –
– En se ramenant en 0, on peut également trouver un équivalent d’une fonction en ±∞.
– Avec ce théorème, on retrouve tous les équivalents dits « classiques ».
NE
1−x 0 0
3 5 2x 2 4x 4
produit, il vient que : arcsin(x) = x + 2x3 + 8x 3x 1
¡ 5¢ ¡ 4¢
15 + o x . D’un autre côté, on a 3−2x 2 = x 1−2x 2 /3 = x[1 + 3 + 9 + o x ]=
p
1−x 2 0 0
3 5 5 5
x + 2x3 + 4x9 + o x 5 . Finalement, on a f (x) = 4x x 5 , et donc f (x) ∼ 4x
¡ ¢ ¡ ¢
0 45 + o 0 0 45
.
AIG
NT
MO
Structures algébriques
AIG
Sommaire
I Lois de composition interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
2) Élément neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
II Structure de groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
2) Sous-groupes d’un groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
III Anneaux et corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
1) Anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
2) Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
ZExemples :
– L’addition et la multiplication des nombres sont des lci dans N, dans Z, dans Q, dans R, dans C mais
pas dans [−2; 2] par exemple.
MO
– L’addition et la multiplication des fonctions dans (F (A, C) sont des lci (A étant un ensemble non vide).
En particulier l’addition et la multiplication des suites sont des lci dans F (N, C).
– L’addition et la multiplication des polynômes sont des lci dans K[X]. Si n ∈ N, l’addition est une lci
dans Kn [X] mais pas la multiplication.
© ª
– Soit E un ensemble non vide, on note S E = f : E → E | f est bijective (ensemble des permutations de
E). La composition des applications (dite loi ◦) est une lci dans S E .
x+y
FExercice 15.1 Soit E =] − 1; 1[. Pour x, y ∈ E, on pose x ∗ y = 1+x y . Montrer que l’on définit ainsi une lci dans E.
ZExemples :
– L’addition et la multiplication des nombres dans N, Z, Q, R, C, sont associatives et commutatives.
– L’addition et la multiplication des fonctions dans (F (A, C) (A étant un ensemble non vide) sont asso-
NE
ciatives et commutatives.
– L’addition et la multiplication des polynômes sont associatives et commutatives.
– Dans (S E , ◦), la loi est associative mais non commutative en général.
– Dans (R, ∗) avec x ∗ y = x − y pour tout x, y ∈ R, la loi est une lci non commutative (2 ∗ 3 = −1 mais
3 ∗ 2 = 1) et non associative ( (1 ∗ 2) ∗ 3 = (−1) ∗ 3 = −4 et 1 ∗ (2 ∗ 3) = 1 ∗ (−1) = 2).
x+y
FExercice 15.2 Soit E =] − 1; 1[. Pour x, y ∈ E, on pose x ∗ y = 1+x y . Montrer que l’opération ∗ est associative et commuta-
tive.
2) Élément neutre
Définition 15.3
AIG
Soit (E, ∗) un ensemble muni d’une lci et soit e ∈ E, on dit que e est un élément neutre pour la loi
∗ lorsque ∀x ∈ E, x ∗ e = e ∗ x = x. Dans le cas où l’opération est notée additivement, l’élément
neutre (s’il existe) est appelé noté en général 0E (zéro de E). Dans le cas où l’opération est notée
multiplicativement, l’élément neutre (s’il existe) est noté en général 1E (un de E).
ZExemples :
– L’élément neutre de l’addition des nombres est 0. Celui de la multiplication des nombres est 1.
– L’élément neutre de l’addition des fonctions dans (F (A, C) est la fonction constamment nulle. Celui de
la multiplication est la fonction constante x 7→ 1.
– L’élément neutre de l’addition des polynômes est le polynôme nul, celui de la multiplication est la
polynôme constant 1.
– Dans (S E , ◦), idE est élément neutre.
– Dans (R, ∗) avec x ∗ y = x − y il y a un élément neutre à droite qui est 0 car ∀x ∈ R, x − 0 = x, mais il n’y
NT
a pas d’élément neutre à gauche.
x+y
FExercice 15.3 Soit E =] − 1; 1[. Pour x, y ∈ E, on pose x ∗ y = 1+x y . Montrer qu’il y a un élément neutre pour cette
opération.
Remarque 15.1 – Si (E, ∗) possède un élément neutre, alors celui-ci est unique. En effet, si on a deux éléments
neutre e et e 0 , alors e ∗ e 0 = e car e 0 est neutre, et e ∗ e 0 = e 0 car e est neutre, d’où e = e 0 .
Définition 15.4
Soit (E, ∗) un ensemble muni d’une lci possédant un élément neutre e. On dit que x ∈ E est symétri-
sable lorsqu’il existe x 0 ∈ E tel que x ∗ x 0 = x 0 ∗ x = e. Si c’est le cas, on dit que x 0 est un symétrique
de x. Dans le cas où l’opération est notée additivement, le symétrique de x est appelé opposé de x
et noté −x. Dans le cas où l’opération est notée multiplicativement, le symétrique de x est appelé
MO
inverse de x et noté x −1 .
ZExemples :
– Dans (C, +), (R, +), (Q, +) et (Z, +), chaque élément possède un opposé, mais pas dans (N, +).
– Dans (C∗ , ×), (R∗ , ×), (Q∗ , ×), chaque élément possède un inverse, mais pas dans (Z∗ , ×).
– Dans (F (A, C), +) chaque fonction possède un opposé.
– Dans (F (A, C), ×), seules les fonctions qui ne s’annulent jamais ont un inverse.
– Dans (K[X], +) chaque polynôme possède un opposé.
– Dans (K, ×), seuls les polynômes constants non nuls ont un inverse.
– Dans (S E , ◦), chaque permutation f de E a un symétrique qui est la bijection réciproque f −1 .
Théorème 15.1
Soit (E, ∗) un ensemble muni d’une lci associative et possédant un élément neutre e. Si un élément x
NE
possède un symétrique x 0 dans E, alors celui-ci est unique.
II STRUCTURE DE GROUPE
1) Définitions
Définition 15.5
Un groupe est un ensemble non vide G muni d’une opération ∗ (ou loi de composition) qui vérifie les
AIG
propriétés suivantes :
– elle doit être interne : ∀ x, y ∈ G, x ∗ y ∈ G.
– elle doit être associative : ∀ x, y, z ∈ G, x ∗ (y ∗ z) = (x ∗ y) ∗ z.
– elle doit posséder un élément neutre : ∃ e ∈ G, ∀ x ∈ G, e ∗ x = x ∗ e = x. Si la loi est une addition
l’élément neutre sera noté 0G et on parlera de groupe additif. Si la loi est une multiplication,
l’élément neutre sera noté 1G et on parlera de groupe multiplicatif. Dans le cas général l’élément
neutre est souvent noté e G .
– tout élément de G doit avoir un symétrique dans G : ∀ x ∈ G, ∃ x 0 ∈ G, x ∗ x 0 = x 0 ∗ x = e G . En notation
additive, le symétrique de x est appelé opposé de x et noté −x, en notation multiplicative on
l’appelle inverse de x et on le note x −1 .
Lorsque toutes ces conditions sont remplies, on dit (G, ∗) est un groupe. Si en plus la loi ∗ est commu-
tative (∀ x, y ∈ G, x ∗ y = y ∗ x), alors on dit que (G, ∗) est un groupe abélien (ou groupe commutatif).
NT
ZExemples :
– (Z, +), (Q, +), (R, +), (C, +), (Q∗ , ×), (R∗ , ×), (C∗ , ×) sont des groupes abéliens.
– (N, +) et (Z∗ , ×) ne sont pas des groupes.
– (F (I, C), +) est un groupe abélien pour l’addition des fonctions (ou des suites si I = N).
– (K[X], +) est un groupe abélien.
– Si E est un ensemble non vide, (S E , ◦) est un groupe (non abélien en général), on appelle groupe des
permutations de E.
Définition 15.6
Soit (G, .) un groupe et H un ensemble, on dit que H est un sous-groupe de (G, .) lorsque :
H ⊂ G; H 6= ; et ∀ x, y ∈ H, x.y ∈ H, x −1 ∈ H.
ZExemples :
– {e} et G sont des sous-groupes de (G, .), ils sont appelés sous-groupes triviaux de (G, .).
– Si (H, .) est un groupe inclus dans un groupe (G, .) pour la même loi, alors H est un sous-groupe de G,
NE
car on vérifie facilement que l’élément neutre de G est forcément égal à l’élément neutre de H, ce qui
entraîne pour x ∈ H, que son symétrique dans G et son symétrique dans H sont les mêmes.
– (U, ×) et (Un , ×) sont des sous-groupes de (C∗ , ×).
– L’ensemble des fonctions définies sur R et 2π-périodiques est un groupe additif, car c’est un sous-
groupe de (F (R, R), +).
– L’ensemble des entiers pairs est un groupe additif, car c’est un sous-groupe de (Z, +).
– Z[i ] = {a + i b | a, b ∈ Z} est un sous-groupe de (C, +).
Remarque 15.2 – Si H est un sous-groupe de (G, .) alors (H, .) lui-même est un groupe (de même élément neutre
que G). Ceci est souvent utilisé dans la pratique pour montrer qu’un ensemble est un groupe pour une loi, on
essaie de montrer (quand c’est possible) que c’est un sous-groupe d’un groupe connu pour cette même loi.
AIG
Théorème 15.2 (sous-groupes de (Z, +))
H est un sous-groupe de (Z, +) si et seulement si il existe un entier n tel que H = n Z (ensemble des
multiples entiers de n). L’entier n est unique au signe près et si H 6= {0}, alors n = min H∗+ .
Preuve : Il est facile de vérifier que pour n ∈ Z, nZ est un sous-groupe de Z. Si H = {0}, alors on peut prendre n = 0 et
c’est le seul entier qui convienne. Si H 6= {0}, posons, n = min H∗+ (n existe dans N, c’est la propriété fondamentale de
N), on a n ∈ H, comme H est un sous-groupe de (Z, +), tout multiple de n est dans H, i.e. nZ ⊂ H. Soit k ∈ H effectuons
la division euclidienne de k par n (n 6= 0) : k = nq + r avec 0 6 r < n. On a donc r = k − nq ∈ H+ , si r 6= 0 alors r > n
ce qui est absurde, donc r = 0 ce qui donne k = nq ∈ nZ, finalement H = nZ. Si on a aussi H = mZ avec m ∈ N, alors
nZ = mZ, donc n et m se divisent mutuellement dans N, donc n = m.
Preuve : Celle-ci est laissée en exercice. Donnons cependant un contre-exemple pour la réunion : 2Z ∪ 3Z n’est pas
un sous-groupe de (Z, +), car 2 et 3 sont dans la réunion, mais pas 2 + 3 = 5, cet ensemble n’est donc pas stable pour
l’addition (les autres conditions sont néanmoins remplies).
1) Anneaux
Définition 15.7
Un anneau est un ensemble A muni de deux lois de composition internes : une addition et une
NE
multiplication, qui vérifient :
– (A, +) est un groupe abélien.
– La multiplication :
• est associative,
• admet un élément neutre (noté 1).
• est distributive sur l’addition.
Si de plus la multiplication est commutative, on dit que (A, +, ×) est un anneau commutatif.
ZExemples :
– (Z, +, ×) est un anneau commutatif mais ce n’est pas un corps.
– (F (N, C), +, ×) est un anneau commutatif.
AIG
– Si E est un ensemble non vide, l’ensemble des fonctions de E dans C muni des opérations usuelles sur
les fonctions, est un anneau commutatif, i.e. (F (E, C), +, ×) est un anneau commutatif.
– Plus généralement, si (A, +, ×) est un anneau et E est un ensemble non vide, alors (F (E, A), +, ×) est un
anneau.
Pn Pn
FExercice 15.7 Si x ∈ A, simplifier (1 − x) k=0
x k et (1 + x) k=0
(−1)k x k .
Remarque 15.3 –
– Dans un anneau intègre, un produit de facteurs est nul si et seulement si au moins un des facteurs est
nul.
NE
– (Z, +, ×) est un anneau intègre.
– L’ensemble des suites complexes est un anneau non intègre.
AIG
Théorème 15.6
Une intersection de sous-anneaux de (A, +, ×) est un sous-anneau de A.
2) Corps
Définition 15.10
Un corps est un ensemble E muni de deux opérations (ou deux lois de composition), une addition et
une multiplication. Ces deux opérations doivent vérifier les propriétés suivantes :
– (E, +, ×) est un anneau.
NT
– U(E) = E \ {0}, i.e. : ∀ x ∈ E \ {0}, x a un inverse dans E. Si de plus la multiplication est commutative,
on dit que (E, +, ×) est un corps commutatif.
ZExemples :
– (R, +, ×), (Q, +, ×), (C, +, ×) sont des corps commutatifs, mais (Z, +, ×) n’est pas un corps.
– Il existe des corps non commutatifs (corps des quaternions).
Remarque 15.4 –
– Un corps est toujours intègre.
– Les règles de calculs sont les mêmes que dans un anneau.
MO
ZExemples :
– Q est un sous-corps de R qui est lui-même un sous-corps de C.
– Q[ip] = {a + i b /pa, b ∈ Q} est un sous-corps de (C, +, ×).
– Q[ 2] = {a + b 2 / a, b ∈ Q} est un sous-corps de R.
Polynômes
AIG
Sommaire
I Ensemble des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
2) Opérations sur les polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
II Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
1) Degré d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
2) Algorithme de la division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
3) Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
III Fonctions polynomiales, racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
1) Substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
2) Fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
3) Racines d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
4) Corps algébriquement clos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5) Relations racines coefficients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
NT
IV Formule de Taylor des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
1) Dérivation des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
2) Formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
1) Définition
Définition 16.1
MO
NE
k∈N k∈N
AIG
Propriétés : (K[X], +, .) est un K-espace vectoriel.
n
Avec les notations précédentes, pour n ∈ N, on pose c n = a k b n−k , si n > N + N0 − 1, alors il est facile de
P
k=0
voir que pour toute valeur de k dans J0; n K, le produit a k b n−k est nul, et donc c n est nul.
n
P P
Remarque 16.2 – On a aussi c n = a n−k b k = ap bq .
k=0 p+q=n
NT
Propriétés : on vérifie que cette multiplication :
– est commutative,
– est associative,
– possède un élément neutre qui est le polynôme constant 1.
– est distributive sur l’addition.
À retenir
an Xn = b n X n ⇐⇒ ∀ n ∈ N, a n = b n .
P P
µn∈N ¶ n∈N
MO
µ ¶
n n
(a n + b n )X n .
P P P
an X + bn X =
µ n∈N ¶ µ n∈N ¶ n∈N
µ ¶
an Xn × bn Xn = a p b q Xn .
P P P P
n∈N n∈N n∈N p+q=n
a n X n ∈ K ⇐⇒ ∀ n > 1, a n = 0.
P
n∈N
II DIVISION EUCLIDIENNE
Définition 16.5
Soit P ∈ K[X], si P = 0 alors on pose deg(P) = −∞, sinon on pose deg(P) = max{k ∈ N / a k 6= 0}. Si P est
NE
non nul de degré n, alors le coefficient a n est appelé coefficient dominant de P, si ce coefficient vaut
1, alors on dit que le polynôme P est unitaire (ou normalisé).
Remarque 16.3 – Caractérisations du polynôme nul et des polynômes constants non nuls
– P = 0 ⇐⇒ deg(P) = −∞.
– P ∈ K∗ ⇐⇒ deg(P) = 0.
Théorème 16.1
Soient P, Q ∈ K[X], deg(P + Q) 6 max(deg(P), deg(Q)), et deg(P × Q) = deg(P) + deg(Q).
AIG
Preuve : Si l’un des deux polynômes est nul, alors le théorème est évident. Supposons les deux polynômes non nuls : P =
a n X n et Q = b n X n , si a n +b n 6= 0 alors a n 6= 0 ou b n 6= 0, donc n 6 deg(P) ou n 6 deg(Q) i.e. n 6 max(deg(P), deg(Q)),
P P
n n
ce qui prouve le premier résultat.
P × Q = c n X n où c n = a p b q . Posons N = deg(P) et N0 = deg(Q), il est clair que c N+N0 = a N b N0 6= 0, d’autre
P P
n p+q=n
part si n > N + N0 , alors si p + q = n on a p > N ou q > N0 donc a p b q = 0 ce qui entraîne c n = 0. Par conséquent,
deg(P × Q) = N + N0 = deg(P) + deg(Q).
Remarque 16.4 – Lorsque P et Q ont des degrés distincts, ou bien lorsque P et Q ont même degré mais des
coefficients dominants non opposés, alors deg(P + Q) = max(deg(P), deg(Q)).
Théorème 16.2
L’anneau (K[X], +, ×) est un anneau intègre, et seuls les polynômes constants non nuls ont un inverse
dans K[X].
NT
Preuve : Si P et Q sont deux polynômes non nuls, alors deg(P × Q) = deg(P) + deg(Q) ∈ N, donc P × Q 6= 0, ce qui prouve
que K[X] est intègre.
Si P est inversible dans K[X], alors il existe un polynôme Q tel que P × Q = 1, d’où deg(P) + deg(Q) = 0, ce qui
entraîne deg(P) = deg(Q) = 0 et donc P ∈ K∗ . La réciproque est évidente.
Notation : Soit n ∈ N, on note Kn [X] l’ensemble des polynômes de degré inférieur ou égal à n :
Preuve : Pour l’existence : si deg(A) < deg(B), alors on peut prendre Q = 0 et R = A ; si deg(A) = deg(B) = d : soit a d
a
le coefficient dominant de A, et b d celui de B, posons Q = b d , alors le coefficient dominant de B × Q est a d , donc
d
deg(A − B × Q) < d = deg(B), on peut donc prendre R = A − B × Q. Supposons maintenant l’existence démontrée
a
pour deg(A) 6 n avec n > d , et soit A de degré n + 1, notons a n+1 son coefficient dominant, soit Q0 = bn+1 X n+1−d ,
d
alors deg(B × Q0 ) = n + 1 et le coefficient dominant de B × Q0 est a n+1 , donc deg(A − B × Q0 ) 6 n, d’après l’hypothèse
de récurrence, il existe deux polynômes Q00 et R tels que A − B × Q0 = B × Q" + R avec deg(R) < deg(B), mais alors
A = B × (Q0 + Q00 ) + R, ce qui prouve l’existence au rang n + 1.
Pour l’unicité : supposons que A = B×Q+R = B×Q0 +R0 avec deg(R) < deg(B) et deg(R0 ) < deg(B), alors B×(Q−Q0 ) =
R − R, d’où deg(B) + deg(Q − Q0 ) = deg(R0 − R) < deg(B), comme deg(B) > 0, on a nécessairement deg(Q − Q0 ) = −∞ =
0
Remarque 16.5 – La démonstration est constructive, en ce sens qu’elle donne un algorithme de calcul du
quotient (Q) et du reste (R).
NE
ZExemple : Avec A = X4 + aX2 + bX + c et B = X2 + X + 1, on obtient le quotient Q = X2 − X + a et le reste
R = (b − a + 1)X + c − a. On peut vérifier que A = B × (X 2 − X + a) + (b − a + 1)X + c − a.
3) Divisibilité
Définition 16.6
Soient A, B ∈ K[X], on dit que B divise A lorsqu’il existe un polynôme Q tel que A = Q × B, notation B|A.
Remarque 16.6 – On définit ainsi une relation dans K[X], on peut vérifier que celle - ci est réflexive, transitive,
mais elle n’est ni symétrique, ni antisymétrique. Plus précisément, B|A et A|B ssi il existe λ ∈ K∗ tel que A = λB
AIG
(on dit que A et B sont associés).
Théorème 16.4
– Si B 6= 0, alors B|A si et seulement si le reste de la division euclidienne de A par B est nul.
– Si A 6= 0 et B|A, alors deg(B) 6 deg(A).
– Si B|A et B|C, alors ∀ U, V ∈ K[X], B|A × U + C × V.
Théorème 16.5
Soit A une K-algèbre et soit a ∈ A , l’application : S a : K[X] → A , est un morphisme
n n
αk X k αk a k
P P
7 →
k=0 k=0
de K-algèbres, c’est à dire : ∀ P, Q ∈ K[X], ∀ λ ∈ K
– S a (P + Q) = S a (P) + S a (Q).
– S a (P × Q) = S a (P) × S a (Q).
– S a (λP) = λS a (P).
– S a (1) = 1.
MO
Preuve : Celle - ci repose sur les règles de calculs dans une algèbre.
Remarque 16.8 – L’application S a est appelée substitution par a. Concrètement, le théorème ci - dessus dit que
la substitution par a consiste simplement à remplacer l’indéterminée X par a. Par exemple, si on a P = Q×B+R,
alors S a (P) = S a (Q) × S a (B) + S a (R).
2) Fonctions polynomiales
Définition 16.7
L’application : P e: K → K , est appelée fonction polynomiale associée au polynôme P. Si
x 7→ S x (P)
n n
a k X k , alors P a k x k où x est une variable qui décrit K.
P P
P= e : x 7→
k=0 k=0
Remarque 16.9 – On prendra garde à ne pas confondre la variable x, qui est un élément de K, avec l’indéter-
minée X (qui n’appartient pas à K).
NE
Remarque 16.10 – On a P
+Q = P
e + Q,
e P×Q = P e λ.P
e × Q, g = λ.P.
e
Définition 16.8
n
a k X k ∈ K[X], on appelle racine de P dans K tout élément a ∈ K tel que P(a)
P
Soit P = e = 0, c’est à dire
k=0
n
toute solution dans K à l’équation a k x k = 0.
P
k=0
AIG
Théorème 16.6
Soit P ∈ K[X] :
– Soit a ∈ K, a est racine de P ssi X − a|P.
– Si deg(P) 6 n et si P admet au moins (n + 1) racines dans K, alors P = 0.
Preuve : Soit a ∈ K, on effectue la division euclidienne de P par X − a : P = Q × (X − a) + R avec deg(R) < 1, donc R est
un polynôme constant R = λ, finalement P = Q × (X − a) + λ. Substituons a à X : P(a)e = Q(a)
e × (a − a) + λ, c’est à dire :
λ = P(a), ce qui prouve la première assertion.
e
La deuxième assertion se démontre par récurrence sur n : pour n = 0, l’hypothèse dit que P est une constante et
que P a au moins une racine, donc cette constante est nulle, i.e. P = 0. Supposons le résultat démontré au rang n, et soit
deg(P) 6 n + 1 avec P ayant au moins n + 2 racines, soit a l’une d’elles, alors il existe Q ∈ K[X], tel que P = Q × (X − a),
mais alors deg(Q) 6 n et Q a au moins n + 1 racines dans K, donc Q = 0 (HR) et par conséquent, P = 0.
Conséquences :
a) Si a 1 , . . . , a n sont des racines distinctes de P alors (X − a 1 ) · · · (X − a n )|P.
NT
b) Si P est non nul de degré n, alors P admet au plus n racines distinctes.
c) L’application φ : K[X] → F (K, K) définie par φ(P) = P
e est injective. On pourrait donc identifier P et P
e la
fonction polynomiale associée à P.
FExercice 16.1 Soit P un polynôme de degré 2, on pose :
e + X(X−1) P(−1)
Q = (1 − X 2 )P(0) e + X(X+1) P(1)
e
2 2
Montrer que P = Q.
Remarque 16.11 – Pour montrer qu’un polynôme P est nul on dispose de trois méthodes :
– Montrer que tous les coefficients de P sont nuls.
– Montrer que le degré de P est −∞.
– Montrer que P a une infinité de racines.
Soit P un polynôme non nul et soit a ∈ K, on sait que que si (X − a)k |P alors k 6 deg(P) (car P 6= 0). Par
conséquent l’ensemble {k ∈ N / (X − a)k |P} est un ensemble non vide (contient 0) et majoré par deg(P),
MO
comme c’est une partie de N, cet ensemble admet un plus grand élément.
Remarque 16.12 –
– a est racine de P équivaut à m P (a) > 1.
– Il est facile de vérifier que si q ∈ {k ∈ N / (X − a)k |P}, alors tout entier inférieur ou égal à q est également
dans l’ensemble, cela signifie que l’ensemble {k ∈ N / (X − a)k |P} est un intervalle d’entiers, on peut donc
énoncer : m = m P (a) ⇐⇒ (X − a)m divise P et (X − a)m+1 ne divise pas P.
FExercice 16.2 Calculer la multiplicité de 1 dans les polynômes P = X3 − 3X 2 + 2 et Q = X3 − 4X 2 + 5X − 2.
Théorème 16.7
Soit P un polynôme non nul, soit a ∈ K, et soit m ∈ N, on a alors :
NE
m = m P (a) ⇐⇒ ∃ Q ∈ K[X], P = (X − a)m × Q et Q(a)
e 6= 0.
Théorème 16.8
Soient P, Q ∈ K[X], non nuls, et a ∈ K
a) m P×Q (a) = m P (a) + m Q (a).
b) si P + Q 6= 0, alors m P+Q (a) > min(m P (a); m Q (a)).
AIG
Preuve : Celle-ci est simple et laissée en exercice.
avec a 1 et a 2 qui ne sont pas racines de T. De proche en proche (récurrence sur n) on a arrive à : il existe un
polynôme S tel que P = (X − a 1 )m1 · · · (X − a n )mn × S, avec a 1 , . . . , a n qui ne sont pas racines de S, mais comme
P n’a pas d’autres racines on peut en déduire que S est sans racine dans K.
n
(X − a k )mk , on voit que lorsque P est scindé, alors
Q
En reprenant la factorisation précédente : P = Q ×
k=1
deg(Q) = 0, le polynôme Q est donc une constante non nulle, en comparant les coefficients dominants de
chaque coté, on voit que Q est égal au coefficient dominant de P, d’où l’énoncé :
Théorème 16.10
Si P est scindé et si a 1 , . . . , a n sont les racines distinctes de P de multiplicités respectives m 1 , . . . , m n ,
n
alors P = λ (X − a k )mk , où λ est le coefficient dominant de P.
Q
k=1
ZExemples :
– X 2 − 2 est scindé sur R, mais pas sur Q.
– X 2 + 1 est scindé sur C, mais pas sur R.
Définition 16.11
On dit que le corps K est algébriquement clos lorsque tout polynôme non constant de K[X] admet au
NE
moins une racine dans K.
Remarque 16.13 – D’après les exemples précédents, les corps Q et R ne sont pas algébriquement clos.
Théorème 16.11
Si K est un corps algébriquement clos, alors tout polynôme non constant de K[X] est scindé sur K.
Preuve : On montre par récurrence sur n que si deg(P) = n alors P admet n racines dans K. Pour n = 1, P = aX + b =
a(X + b/a), une racine −b/a. Supposons le résultat démontré au rang n, et soit P de degré n + 1 : P est non constant,
donc P admet au moins une racine a, d’où P = (X − a) × Q, mais deg(Q) = n, il suffit alors d’appliquer l’hypothèse de
récurrence à Q pour terminer.
AIG
Théorème 16.12 (de D’Alembert 1 )
C est un corps algébriquement clos.
ZExemples :
– Factoriser X 2n − 1 dans C[X] puis dans R[X].
2n−1 π
X 2n − 1 =
Y
(X − exp(i k ))
k=0 n
n−1
Y π π
= (X − 1)(X + 1) (X − exp(i k ))(X − exp(−i k ))
k=1 n n
n−1 π
(X 2 − 2 cos(k )X + 1).
Y
= (X − 1)(X + 1)
NT
k=1 n
X 4 + X 2 + 1 = (X 2 + 1)2 − X 2 = (X 2 − X + 1)(X 2 + X + 1)
p p
4 2 2 1 2 5 2 1+ 5 2 5−1
X + X − 1 = (X + ) − = (X + )(X − )
2 4 2 2
p s p s p
2 1+ 5 5−1 5−1
= (X + )(X − )(X + )
2 2 2
FExercice 16.3
1/ Soit P ∈ C[X] avec P = a k X k , on appelle conjugué de P le polynôme P = a k X k . Montrer que P + Q = P + Q, que
P P
MO
k k
PQ = P × Q, et que P ∈ R[X] si et seulement si P = P. Vérifier que pour z ∈ C, P(z) = P(z).
2/ Soit P ∈ R[X] non constant, soit z une racine complexe de P de multiplicité m. Montrer que z est racine de P de
multiplicité m.
NE
des racines, σ2 est la somme des produits deux à deux, · · · , σn est le produit des racines.
Par récurrence on peut alors établir que :
n
(X − a 1 ) · · · (X − a n ) = X n − σ1 X n−1 + σ2 X n−2 − · · · + (−1)n σn = (−1)k σk X n−k
X
k=0
On en déduit :
Théorème 16.13
n
Soient a 1 , . . . , a n ∈ K, si P = αk X k = αn (X − a 1 ) · · · (X − a n ), alors on a les relations racines - coeffi-
P
k=0
cients suivantes : αn−k = (−1)k αn σk .
AIG
αn−1
En particulier, la somme des racines est − αn et le produit des racines est (−1)n ααn0 .
FExercice 16.4 Calculer la somme et le produit des racines n-ièmes de l’unité.
Définition 16.12
a k X k , on appelle polynôme dérivé de P, le polynôme noté P 0 ou dd XP , et défini par :
P
Soit P =
k
P0 = ka k X k−1 .
P
NT
k >1
(
(n) (n) P si n = 0
Par récurrence, la dérivée n-ième de P, notée P , est : P = £ (n−1) ¤0
P si n > 1
k=0
Preuve : La première propriété est simple à vérifier. Pour la deuxième propriété, on commence par montrer que
(X n × Q)0 = nX n−1 × Q + X n × Q0 , puis on applique la première propriété. La formule de L EIBNIZ se montre ensuite par
récurrence sur n (exactement comme la formule du binôme de N EWTON). Quant à la troisième, on commence par le
cas où P = X n , c’est à dire on commence par montrer que [Qn ]0 = nQ0 × Qn−1 , ce qui se fait par récurrence sur n, on
utilise ensuite la première propriété pour le cas général.
Théorème 16.15
(
n! n−k
(n−k)! X si k 6 n
Si P = X n , alors P (k) = a n X n , alors
NE
P
. On en déduit que si P =
0 si k > n n
n!
P (k) = a n X n−k
X
n >k (n − k)!
En particulier si deg(P) = n alors P (n) = a n n! et si k > deg(P), alors P (k) = 0. D’autre part, lorsque
k 6 deg(P), alors deg(P (k) ) = deg(P) − k.
2) Formule de Taylor
AIG
n n ¡k ¢
a k X k , soit r un entier compris entre 0 et n, alors P (r ) = a k X k−r , substituons 0 à X, on
P P
Soit P = r! r
k=0 k=r
obtient alors P (r ) (0) = r !a , on en déduit donc que :
r
g
P
g (r ) (0)
∀r ∈ J0; n K , a r = .
r!
Remarquons que la formule reste vraie pour r > n, finalement on obtient la formule de TAYLOR 3 en 0 :
(k) (0)
X Pg
P= Xk .
k k!
Soit a ∈ K, posons Q = P(X + a) (composée de P avec le polynôme X + a), d’après ce qui précède, on a :
XQ
g (k) (0)
Q= Xk .
k k!
NT
Or, il est facile de montrer que Q(k) = P (k) (X + a), par conséquent Q g (k) (0) = P
g (k) (a), et comme P = Q(X − a), on
obtient :
X Pg (k) (a)
P= (X − a)k .
k k!
Théorème 16.16
(k) (a)
P Pg
Si P ∈ K[X] et a ∈ K, alors P = k! (X − a)k . C’est la formule de TAYLOR pour le polynôme P en a.
k
Applications :
– Division euclidienne d’un polynôme P par (X − a)n : d’après la formule de TAYLOR en a appliquée à P, on a :
MO
(k) (a)
X Pg
P= (X − a)k
k k!
X Pg(k) (a) X Pg(k) (a)
= (X − a)k + (X − a)k
k >n k! k<n k!
X Pg(k) (a) X Pg(k) (a)
= (X − a)n × (X − a)k−n + (X − a)k ,
k >n k! k<n k!
(k) (a)
Pg
P k
comme deg( k! (X − a) ) < n, on en déduit que le quotient Q et le reste R dans la division euclidienne par
k<n
n
(X − a) sont :
X Pg(k) (a) X Pg(k) (a)
Q= (X − a)k−n et R = (X − a)k .
k >n k! k<n k!
– Calcul de la multiplicité d’une racine :
3. TAYLOR B ROOK (1685 – 1731) : mathématicien anglais qui a énoncé sa célèbre formule en 1715.
Théorème 16.17
a ∈ K est une racine de P de multiplicité n > 1 si et seulement si :
NE
(k) (a) = 0 et P
∀ k ∈ J0; n − 1K , Pg g (n) (a) 6= 0.
(k) (a)
Pg (k) (a)
Pg
Preuve : En effet, d’après ce qui précède, P = (X − a)n Q + R avec Q = k−n k
P P
k! (X − a) et R = k! (X − a) , d’où :
k >n k<n
n = m P (a) ⇐⇒ R = 0 et Q(a)
e 6= 0
⇐⇒ R(X + a) = 0 et Q(a)
e 6= 0
(k) (a) = 0, et P
⇐⇒ ∀k ∈ J0; n − 1K , Pg g (n) (a) 6= 0
AIG
NT
MO
AIG
Sommaire
I Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
1) La division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
2) Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
3) Diviseurs communs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
II Éléments premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
1) Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
2) Conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
III Le plus grand diviseur commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
3) Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
IV Le plus petit multiple commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
NT
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
V Polynômes irréductibles, décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
2) Décomposition en facteurs irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
3) Notion de P-valuation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
4) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
I DIVISIBILITÉ
1) La division euclidienne
MO
Théorème 17.1
Soient A ∈ K[X] et B ∈ K[X] non nul, il existe un unique couple de polynômes (Q, R) tel que A = BQ + R
avec deg(R) < deg(B), Q est appelé le quotient, et R le reste.
Définition 17.1
Soient A, B ∈ K[X], on dit que B divise A lorsqu’il existe un polynôme Q tel que A = Q × B, notation B|A.
Remarque 17.1 – On définit ainsi une relation dans K[X], on peut vérifier que celle - ci est réflexive, transitive,
mais elle n’est ni symétrique, ni antisymétrique. Plus précisément, B|A et A|B ssi il existe λ ∈ K∗ tel que A = λB
(on dit que A et B sont associés).
Théorème 17.2
– Si B 6= 0, alors B|A si et seulement si le reste de la division euclidienne de A par B est nul.
NE
– Si A 6= 0 et B|A, alors deg(B) 6 deg(A).
– Si B|A et B|C, alors ∀ U, V ∈ K[X], B|A × U + C × V.
2) Congruences
AIG
Définition 17.2 (congruences)
Soient A, B, P ∈ K[X], on dit que A est congru à B modulo P lorsque P | A − B.
Notation : A ≡ B (mod P).
Théorème 17.3
• La relation de congruence modulo P est une relation d’équivalence.
• Soient A, B, C, D, P ∈ K[X], si A ≡ B (mod P) et C ≡ D (mod P) alors :
AC ≡ BD (mod P) et A + C ≡ B + D (mod P).
On dit que la relation de congruence est compatible avec les opérations.
NT
3) Diviseurs communs
Remarque 17.3 –
© ª
– Si A 6= 0, alors DA est un ensemble infini, mais deg(P) / P ∈ DA est fini car inclus dans J0; deg(A)K.
– D0 = K[X], si λ ∈ K∗ , Dλ = K∗ .
– Si A est non nul, DA = DAe .
Théorème 17.4
Soient A, B, Q, R ∈ K[X], si A = BQ + R, alors DA ∩ DB = DB ∩ DR .
Application – Le théorème ci-dessus fournit un algorithme pour la recherche des diviseurs communs à A et B basé sur
la division euclidienne : c’est l’algorithme d’Euclide, rappelons son principe :
NE
On remarque que si B = 0 alors DA,B = DA . On peut supposer désormais que B 6= 0 et on cherche à calculer
D = DA,B :
Étape 1 : on effectue la division euclidienne de A par B : A = BQ1 +R1 avec deg(R1 ) < deg(B). On a D = DB,R1 ,
donc si R1 = 0 alors D = DB , sinon on passe à l’étape 2 :
AIG
1) Théorème de Bézout
Définition 17.5
Soient A, B ∈ K[X], on dit que a et b sont premiers entre eux (ou A est premier avec B) lorsque le seul
diviseur commun unitaire est 1, i.e. DA,B = K∗ .
Remarque 17.4 –
– Dire que A est premier avec B revient à dire que le dernier reste non nul dans l’algorithme d’Euclide est
égal à 1 une fois normalisé.
– Si A est premier avec B, alors au moins un des deux est non nul (sinon l’ensemble des diviseurs communs
est K[X]).
– A est premier avec A si et seulement si A ∈ K∗ .
NT
Théorème 17.5 (théorème de Bézout)
Soient A, B ∈ K[X], alors A et B sont premiers entre eux si et seulement si il existe U, V ∈ K[X] tels que
AU + BV = 1. Les polynômes U et V sont appelés coefficients de Bézout (non uniques en général).
2) Conséquences
Théorème 17.6
• Si A est premier avec B et si A est premier avec C, alors A est premier avec le produit BC. On en
MO
déduit que si A est premier avec C1 , . . . , Cn , alors A est premier avec le produit C1 × . . . × Cn .
• Si A est premier avec C, si A | B et si C | B, alors AC | B.
• Si A | BC et si A est premier avec C, alors A | B.
1) Définition
Soient A, B ∈ K[X] non tous deux nuls, on sait que DA,B = DR où R est le dernier reste non nul dans
l’algorithme d’Euclide, on voit que les diviseurs communs à A et B ont un degré inférieur ou égal à celui de R.
Soit D un diviseur commn de même degré que R, alors comme D | R on a R = λQ avec λ ∈ K∗ , on en déduit
que les polynômes R et D normalisés sont égaux.
Définition 17.6
Soient A, B ∈ K[X] non tous deux nuls, le pgcd de A et de B le plus grand diviseur commun unitaire.
NE
Notation : pgcd(A, B) ou A ∧ B, c’est le dernier reste non nul dans l’algorithme d’Euclide, une fois
normalisé.
Remarque 17.5 – Il en découle que deux éléments A et B de K[X], non tous deux nuls, sont premiers entre eux
si et seulement si pgcd(A, B) = 1. On remarquera au passage qu’un pgcd entre deux polynômes est unitaire.
Théorème 17.7
Soient A, B ∈ K[X] non tous deux nuls, et D = pgcd(A, B), alors D est l’unique polynôme unitaire dans
K[X] tel que AK[X] + BK[X] = DK[X].
Preuve : Unicité : si DK[X] = D0 K[X] alors D et D0 sont associés, mais comme ils sont unitaires, on a D = D0 .
AIG
Égalité : dans l’algorithme d’Euclide étendu, il existe U et V dans K[X] tel que AU + BV = D, ce qui entraîne que
DK[X] ⊂ AK[X] + BK[X]. Si R ∈ AK[X] + BK[X], alors D est diviseur de R donc AK[X] + BK[X] ⊂ DK[X], d’où l’égalité.
2) Propriétés
e
c) ∀ K ∈ K[X], unitaire, pgcd(KA, KB) = Kpgcd(A, B).
d) ∀ n ∈ N, pgcd(An , Bn ) = pgcd(A, B)n .
e) Si A et C sont premiers entre eux, alors pgcd(A, BC) = pgcd(A, B).
Preuve : Pour le premier point : soit D = pgcd(A, B), alors DA,B = DD donc tout diviseur commun à A et B est un diviseur
de D.
Pour le deuxième point : soit D = pgcd(A, B), alors il existe U, V ∈ K[X] premiers entre eux tels que A = DU et B = DV,
d’où KA = KAU et KB = KDV, donc KD = pgcd(KA, KB) (KD est unitaire).
Pour le reste la preuve est identique à celle dans Z.
NE
3) Généralisation
Soient A, B, C trois polynômes non tous nuls, l’ensemble des diviseurs communs à A, B et C est :
or on sait que DA ∩ DB = DA∧B , donc DA,B,C = D(A∧B)∧C = DA∧(B∧C) . Ces deux polynômes étant unitaires, on a
(A ∧ B) ∧ C = A ∧ (B ∧ C) et ce polynôme est le plus grand (en degré) diviseur unitaire commun à A, B et C. Par
définition ce nombre est le pgcd de A, B et C, on le note : pgcd(A, B, C) .
AIG
À retenir
L’associativité du pgcd permet de ramener le calcul au cas de deux polynômes.
Notons D1 = A ∧ B et R = pgcd(A, B, C), alors R = D1 ∧ C, donc il existe deux polynômes U1 et W tels que
R = D1 U1 + CW, de même, il existe deux polynômes U2 et V1 tels que D1 = AU2 + BV1 , d’où en remplaçant,
R = AU2 U1 + BV1 U1 + cW = AU + BV + CW avec U, V, W ∈ K[X].
Réciproquement, si R est un diviseur commun unitaire, et si R = AU + BV + CW, alors il est facile de voir
que tout diviseur commun à A, B et C est un diviseur de R et donc R = pgcd(A, B, C), d’où le théorème :
Théorème 17.12
Soient A, B, C trois polynômes non tous nuls et R unitaire, alors :
R = pgcd(A, B, C) ⇐⇒ R ∈ DA,B,C et ∃U, V, W ∈ K[X], R = AU + BV + CW.
NT
Définition 17.7
Soient A, B, C trois polynômes non tous nuls, on dira que ces trois polynômes sont :
• premiers entre eux dans leur ensemble lorsque pgcd(A, B, C) = 1.
• premiers entre eux deux à deux lorsque pgcd(A, B) = pgcd(B, C) = pgcd(A, C) = 1.
Attention !
Les deux notions ne sont pas équivalentes, la deuxième entraîne la première mais la réciproque est fausse comme
le montre l’exemple suivant :
pgcd((X + 1)X, (X + 1)(X + 2), X(X + 2)) = 1 mais pgcd(X(X + 1), (X + 1)(X + 2)) = X + 1, pgcd(X(X + 1), X(X + 2)) = X et
pgcd((X + 1)(X + 2), X(X + 2)) = X + 2.
MO
NE
Preuve : Si R = pgcd(A, B, C) alors il existe ∃U, V, W ∈ K[X], A = RU, B = RV et C = RW. Il existe également des polynômes
U1 , V1 et W1 tels que R = AU1 + BV1 + CW1 d’où 1 = UU1 + VV1 + WW1 et donc pgcd(U, V, W) = 1.
Réciproquement, si A = RU, B = RV et C = RW avec pgcd(U, V, W) = 1. Il existe des polynômes U1 , V1 et W1 tels
1 = UU1 + VV1 + WW1 , en multipliant par R il vient alors que R = RUU1 + RVV1 + RWW1 = AU1 + BV1 + CW1 , ce qui
entraîne que R = pgcd(A, B, C) (car R est unitaire et diviseur commun à A, B et C).
Remarque 17.6 – La notion de pgcd s’étend de la même manière à n polynômes.
1) Définition
Théorème 17.15
AIG
Si A et B sont non nuls, il existe un unique polynôme M unitaire dans K[X] tel que :
AK[X] ∩ BK[X] = MK[X].
© ª
Preuve : deg(P) / P ∈ AK[X] ∩ BK[X], P 6= 0 contient deg(AB), il existe donc un multiple commun non nul de degré
minimal, quitte à le normaliser, on peut le supposer unitaire, et on le note M. Il est facile de voir que MK[X] ⊂
AK[X] ∩ BK[X]. Si P ∈ AK[X] ∩ BK[X], on effectue la division de P par M, P = MQ + R avec deg(R) < deg(M), d’où
R = P − MQ, on vérifie alors que R est aussi dans AK[X] ∩ BK[X] . Si R 6= 0 alors deg(R) > deg(M) car M est de degré
minial, ceci est absurde, donc R = 0 et P = MQ, d’où AK[X] ∩ BK[X] ⊂ MK[X], et finalement on a bien l’inégalité.
Si M0 K[X] = MK[X] avec M0 unitaire, alors M et M0 se divisent mutuellement, ils sont donc associés et unitaires
d’où M = M0 .
Il découle de ce théorème que C est un multiple commun à A et B si et seulement si C ∈ AK[X] ∩ BK[X],
ce qui équivaut à C ∈ MK[X], c’est à dire M | C. Ceci entraîne en particulier : deg(M) 6 deg(C).
Définition 17.8
Soit A, B ∈ K[X], non nuls, et soit M ∈ K[X] unitaire, on dit que M est le ppcm de A et B lorsque
NT
AK[X] ∩ BK[X] = MK[X]. Notation : M = ppcm(A, B) ou encore M = A ∨ B.
2) Propriétés
Théorème 17.17
Soient a, b ∈ K[X], non nuls :
a) ∀ P ∈ K[X], si A | P et B | P alors ppcm(A, B) | P.
b) Si A et B sont premiers entre eux, alors ppcm(A, B) = A
e B.
e
c) ∀ K ∈ K[X], unitaire, ppcm(KA, KBb) = Kppcm(A, B).
d) ppcm(A, B) × pgcd(A, B) = A
e B.
e
e) ∀ n ∈ N, ppcm(An , Bn ) = ppcm(A, B)n .
NE
V POLYNÔMES IRRÉDUCTIBLES, DÉCOMPOSITION
1) Définition
Définition 17.9
Un polynôme P ∈ K[X] est dit irréductible sur K lorsque P est non constant et que ses seuls diviseurs
e L’ensemble des éléments irréductibles normalisés de K[X] est noté IK[X] .
unitaires sont 1 et P.
ZExemples :
– Tout polynôme de degré 1 est irréductible, donc ∀ λ ∈ K, X + λ ∈ IK[X] .
– Tout polynôme de degré 2 sans racine dans K est irréductible dans K[X]. Cependant cette propriété
AIG
ne se généralise pas au delà du degré
p 2, par exemple
p : X 4 + 1 est sans racine dans R, mais ce polynôme
4 2 2
est réductible car X + 1 = (X − 2X + 1)(X + 2X + 1).
– La notion de polynôme irréductible dépend du corps K, par exemple, X 2 + 1 est irréductible dans R[X],
mais pas dans C[X]. De même, le polynôme X 2 − 2 est irréductible dans Q[X], mais pas dans R[X].
Théorème 17.18
Dans C[X], les polynômes irréductibles unitaires sont les polynômes unitaires de degré 1, c’est à dire :
IC[X] = {X + a / a ∈ C}.
Dans R[X], les polynômes irréductibles sont les polynômes unitaires de degré 1, plus les polynômes
unitaires de degré 2 sans racines réelles. C’est à dire :
IR[X] = {X + a / a ∈ R} ∪ X 2 + pX + q / p, q ∈ R, p 2 − 4q < 0 .
© ª
c) L’ensemble IK[X] est infini, puisque tout polynôme X + a où a ∈ K est irréductible unitaire.
d) Si P est irréductible et si P | AB, alors P | A ou P | B.
Preuve : Supposons que P ne divise pas A, alors pgcd(P, A) = 1 et par conséquent P | B (d’après le théorème de
Gauss).
NE
irréductible, sinon R est un produit de facteurs irréductibles (HR), donc Q aussi.
AIG
3) Notion de P-valuation
Si Q est un polynôme non nul et P un polynôme irréductible, alors l’ensemble k ∈ N / P k | Q est non
© ª
vide (contient 0) et majoré par deg(Q), cet ensemble admet donc un maximum :
Définition 17.10
Soit P ∈ IK[X] et Q olynôme non nul, on appelle P-valuation de Q, notée v P (Q), le plus grand entier k
tel que P k | Q. La définition s’étend au polynôme nul en posant v P (0) = +∞.
Remarque 17.7 :
– v P (Q) = k ⇐⇒ P k | Q et P k+1 - Q ⇐⇒ ∃ T ∈ K[X], Q = P k T avec P - Q .
– v P (Q) > 1 ⇐⇒ P | Q, auquel cas v P (Q) est la puissance de P dans la décomposition de Q en facteurs
irréductible.
– k ∈ N / P k | Q = J0; v P (Q)K.
© ª
NT
À retenir
Pour tout polynôme Q non constant, la décomposition de Q en produit de facteurs irréductible s’écrit :
Q = λQ P v P (Q) .
Q
P∈IK[X]
En effet, seul un nombre fini de valuations sont non nulles (les autres donnent un facteur égal à 1).
4) Applications
Comme dans Z :
NE
– Si P est non constant, alors la décomposition de P en produit de facteurs irréductibles permet de
trouver tous les diviseurs de P.
– Si P, Q sont non constants, alors à partir de leur décomposition en produit de facteurs irréductibles, on
peut calculer pgcd(P, Q) et ppcm(P, Q).
FExercice 17.2 Dans C[X], montrer que z ∈ C est racine commune de P et Q si et seulement si z est racine de pgcd(P, Q).
FExercice 17.3 Dans C[X], montrer que pour n, m ∈ N∗ , on a pgcd(X n − 1, Xm − 1) = Xd − 1 où d = pgcd(n, m).
Solution 17.3 Il existe u, v ∈ Z tels que nu + mv = d , on en déduit que z n = z m = 1 si et seulement si z d = 1, les racines
du pgcd sont donc les racines d es de l’unité, ce qui donne le résultat.
AIG
NT
MO
Fractions rationnelles
Sommaire
AIG
I Construction de l’ensemble des fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . 159
1) Définition d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
2) Opérations sur les fractions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
3) Représentants irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
II Degré, pôles et racines d’une fraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
1) Notion de degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
2) Pôles et racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
3) Fonctions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
4) Dérivation d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
III Décomposition d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
1) Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
2) Éléments simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
3) Existence de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
NT
IV Décomposition dans le cas complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
1) Forme de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
2) Calcul d’une partie polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
3) Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
V Décomposition dans le cas réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
1) Forme de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
2) Calcul des éléments simples de seconde espèce . . . . . . . . . . . . . . . . . . . . . . . 168
VI Applications de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
1) Calcul de la dérivée n-ième d’une fraction . . . . . . . . . . . . . . . . . . . . . . . . . . 168
2) Primitives d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
MO
(P, Q)R(R, S) ⇐⇒ P × S = Q × R.
On vérifie que la relation R est une relation d’équivalence dans K[X]×(K[X]\{0}). La transitivité de la relation
utilise l’intégrité de K[X].
Définition 18.1
On appelle fraction rationnelle à coefficients dans K toute classe d’équivalence pour la relation R. La
NE
P
classe de (P, Q) est notée Q [avec P le numérateur et Q le dénominateur], on a donc :
P
= {(R, S) ∈ K[X] × (K[X] \ {0}) / PS = QR}.
Q
P
On dit que (P, Q) est un représentant de la fraction Q . L’ensemble des fractions rationnelles est noté
K(X) et la relation R est appelée égalité des fractions rationnelles.
AIG
Définition 18.2 (addition, multiplication, produit par un scalaire)
P R
Soient Q, S deux fractions rationnelles et soit λ ∈ K, on pose :
P R PS + QR P R PR P λP
+ = , × = , et λ = .
Q S QS Q S QS Q Q
Pour que la définition ait un sens il faut le résultat ne dépende pas des représentants choisis pour les
P P0 R R0
fractions, c’est à dire si Q =Q 0 et S = S 0 , alors :
PS + QR P 0 S 0 + Q0 R0 PR P 0 R0 P P0
= ; = et λ = λ .
QS Q0 S 0 QS Q0 S 0 Q Q0
et
λ.(F × G) = (λ.F) × G = F × (λ.G).
Par conséquent, (K(X), +, ×) est un corps commutatif et (K(X), +×, .) est une K-algèbre commutative.
3) Représentants irréductibles
NE
nul 0, et la fraction unité est identifiée au polynôme constant 1.
Définition 18.3
P P
Soit F = Q une fraction, on dit que Q est un représentant irréductible lorsque pgcd(P, Q) = 1.
3
X 2 +X+1 X 2 +X+1
ZExemple : Soit F = XX2 −1
−1
, un représentant irréductible est X+1 , c’est à dire F = X+1 .
Remarque 18.1 – Toute fraction admet des représentants irréductibles. Si on impose en plus que le dénomina-
teur doit être unitaire, alors il y a un seul représentant irréductible.
AIG
II DEGRÉ, PÔLES ET RACINES D’UNE FRACTION
1) Notion de degré
P R P
Soit F une fraction non nulle et Q , S deux représentants de F (i.e. F = Q = RS ), on a donc PS = QR, d’où
deg(P) − deg(Q) = deg(R) − deg(S). Autrement dit, la différence entre le degré du numérateur et le degré du
dénominateur, ne dépend pas du représentant de F, mais seulement de F.
Remarque 18.2 – Soit P un polynôme, en tant que polynôme son degré est deg(P), mais en tant que fraction,
son degré est deg( P1 ) = deg(P) − deg(1) = deg(P), on trouve bien la même chose.
NT
2
ZExemple : deg( X X+1
+X+1 X
) = 1 et deg( X3 −X 2 +2 ) = −2.
P
Preuve : Posons F = Q et G = RS , alors F × G = QS
PR
, donc deg(F × G) = deg(PR) − deg(QS) = deg(P) − deg(Q) + deg(R) −
deg(S) = deg(F) + deg(G). De même, deg(F + G) = deg(PS + QR) − deg(QS), or deg(PS + QR) 6 max(deg(PS), deg(QR)),
donc on a deg(F + G) 6 deg(PS) − deg(QS) ou deg(F + G) 6 deg(QR) − deg(QS), c’est à dire deg(F + G) 6 deg(F) ou
deg(F + G) 6 deg(G), finalement, deg(F + G) 6 max(deg(F), deg(G)).
MO
Remarque 18.3 :
– Une fraction rationnelle constante non nulle a un degré nul, mais la réciproque est fausse, par exemple :
X
F = X+1 .
– Si deg(F) 6= deg(G) alors deg(F + G) = max(deg(F), deg(G)).
– Une fraction F est nulle ssi son degré vaut −∞.
2) Pôles et racines
Définition 18.5
P
Soit F ∈ K(X) non nulle, et soit Q un représentant irréductible de F. On dit que a ∈ K est racine de F
de multiplicité m ∈ N∗ lorsque a est racine du numérateur P de multiplicité m. On dit que a ∈ K est
pôle de F de multiplicité m ∈ N∗ lorsque a est racine du dénominateur Q de multiplicité m.
Remarque 18.4 :
P
– Puisque Q est irréductible, on voit qu’un scalaire a ne peut pas être à la fois pôle et racine de F, sinon P et
Q seraient divisibles par X − a.
NE
– a est un pôle de F de multiplicité m ∈ N∗ revient à dire que a est racine de multiplicité m de F1 .
X 3 −1
– Par exemple, la fraction F = X 2 −1
possède deux racines complexes simples j et j 2 , un pôle simple −1,
mais pas racine réelle.
3) Fonctions rationnelles
Définition 18.6
P
Soit F ∈ K(X) et Q un représentant irréductible de F. On pose DF = K \ {pôles de F}, c’est à dire
DF = {x ∈ K / Q(x) 6= 0}. On appelle fonction rationnelle de K dans K associée à la fraction F, la
e de DF vers K définie par F(x)
fonction notée F = P(x) .
e
e
Q(x)
AIG
e
Remarque 18.5 – Avant d’étudier une fonction rationnelle, il faut la mettre sous forme irréductible.
Théorème 18.3
Soient F, G ∈ K(X), si les fonctions rationnelles F e sont égales sur une partie infinie I de DF ∩ DG ,
e et G
alors les fractions rationnelles sont égales, i.e. F = G.
Preuve : Le corps K est infini, l’ensemble des pôles de F et celui de G sont finis, donc DF ∩ DG est un ensemble infini.
P
Posons F = Q et G = RS irréductibles, alors ∀ x ∈ I, on a P(x)S(x) − R(x)Q(x) = 0, donc le polynôme PS − QR est nul
(infinité de racines) ce qui signifie exactement que F = G.
Définition 18.7
P dF
Soit F = Q ∈ K(X), on appelle fraction dérivée de F la fraction notée F0 (ou d X ) définie par :
P 0 Q − PQ0
MO
F0 = ,
Q2
Le résultat ne dépend pas du représentant de F choisi. On définit également les dérivées successives
¢0
de F en posant F(0) = F et pour tout n ∈ N, F(n+1) = F(n) .
¡
Remarque 18.6 –
¡ ¢0 0 0
– Soit P un polynôme, la dérivée de P en tant que fraction rationnelle est P1 = P 1−P1
12
= P 0 , on retrouve
bien la dérivée de P en tant que polynôme.
X
– Contrairement aux polynômes le degré de F0 n’est pas toujours égal à deg(F) − 1, par exemple : F = X+1 ,
0 1 0
on a deg(F) = 0 et F = (X+1)2 donc deg(F ) = −2.
Par contre on a toujours deg(F0 ) 6 deg(F) − 1.
NE
0
G)0 = F0 × G + F × G0 ; (λ.F)0 = λ.F0 ; F1 = −F
F2
, et la formule de Leibniz :
à !
n n
(n)
F(k) × G(n−k) .
X
(F × G) =
k=0 k
AIG
Théorème 18.5
Si P est un polynôme non nul qui se factorise en P = P1 × · · · × Pn dans K[X], alors :
P0 P10 P0
P = P1 + · · · + Pnn .
1) Partie entière
Soit F = BA une fraction, on effectue la division euclidienne de A par B : A = BQ + R avec deg(R) < deg(B).
NT
On a alors F = Q + BR avec deg( BR ) < 0 et Q ∈ K[X]. Supposons qu’il existe un autre polynôme S et une fraction
G tels que F = S + G avec deg(G) < 0, alors deg(Q − S) = deg(G − BR ) < 0 donc Q = S car ce sont des polynômes,
et G = BR . On peut donc énoncer :
Théorème 18.6
Soit F ∈ K(X), il existe un unique polynôme Q tel que deg(F−Q) < 0, celui-ci est appelé partie entière
de F, c’est le quotient dans la division euclidienne du numérateur de F par le dénominateur.
Remarque 18.7 – Si deg(F) < 0 alors la partie entière de F est nulle (à cause de l’unicité).
2) Éléments simples
MO
Définition 18.9
A
Un élément simple de K(X) est une fraction du type Bn où B est un polynôme irréductible unitaire
(i.e. B ∈ IK[X] ), deg(A) < deg(B), et n > 1.
NE
(X − a)n
• éléments simples de seconde espèce :
aX + b
avec a, b, p, q ∈ R, p 2 − 4q < 0, et n > 1.
(X 2 + pX + q)n
Définition 18.10
Décomposer une fraction rationnelle F non nulle, c’est l’écrire comme somme de sa partie entière et
d’éléments simples.
ZExemples :
AIG
3
– F = XX2 +1 , sa partie entière est X, et on a F = X + X−X
2 +1 : c’est la décomposition de F en éléments simples
3) Existence de la décomposition
Soit F une fraction non nulle et non polynomiale : F = BA (forme irréductible), on calcule sa partie entière :
E, on a alors = E + BR avec deg( BR ) < 0, on est alors amené à décomposer une fraction de degré strictement
négatif en éléments simples.
r
m
Pi i (on peut
Q
On factorise le dénominateur B en produit de polynômes irréductibles unitaires : B =
i =1
supposer B unitaire).
Théorème 18.7
NT
A
Si T, S sont deux polynômes premiers entre eux et si deg( TS ) < 0, alors il existe deux polynômes U et
V tels que :
A U V
= + avec deg(U) < deg(T), deg(V) < deg(S).
TS T S
A AU 0 0
Preuve : Il existe deux polynômes U 0 , V 0 tels que U 0 S + V 0 T = 1 (théorème de Bezout), on a alors TS = T + AV
S , soit E1 la
AU 0 AV 0 AU 0 U
partie entière de T et E2 celle de
S , il existe deux polynômes U et V tels que T = E1 + T avec deg(U) < deg(T), et
AV 0 V A U V U V
S = E2 + S avec deg(V) < deg(S), d’où : TS = E1 + E2 + T + S , mais deg( T + S ) < 0, donc E1 + E2 est la partie entière de
A
TS , or celle-ci est nulle, donc E1 + E2 = 0, ce qui donne le résultat.
Conséquence : Par récurrence on en déduit que si B1 , . . . , Bn sont premiers entre eux deux à deux et si
A
deg( B1 ×...×Bn
) < 0, alors il existe des polynômes U1 , . . . , Un tels que :
MO
A n U
X i
= avec deg(Ui ) < deg(Bi ).
B1 × . . . × Bn i =1 Bi
En appliquant ceci à notre fraction F, on peut affirmer qu’il existe des polynômes (Ui )16i 6r tels que :
r U
X i m
F=E+ mi avec deg(Ui ) < deg[Pi i ].
i =1 Pi
Théorème 18.8
Si T est un polynôme irréductible unitaire et si deg( TAn ) < 0 (n > 1), alors il existe des polynômes
V1 , . . . , Vn tels que :
A n V
X k
n
= k
avec deg(Vk ) < deg(T).
T k=1 T
A
Preuve : Par récurrence sur n : pour n = 1 il n’y a rien à faire. Si le théorème est vrai au rang n et si deg( Tn+1 ) < 0, alors
NE
A Q V
on effectue la division euclidienne de A par T : A = QT + Vn+1 avec deg(Vn+1 ) < deg(T), ce qui donne T n+1
= Tn + Tn+1
n+1 , il
Q
est facile de voir que deg( Tn ) < 0, on peut donc appliquer l’hypothèse de récurrence, ce qui donne le résultat.
U
On peut appliquer ce théorème à chacune des fractions mii : il existe des polynômes V1,i , . . . , Vmi ,i tels
Pi
que :
mi V
Ui X j ,i
mi = j
avec deg(V j ,i ) < deg(Pi ).
Pi j =1 P
i
Ce qui donne pour F : " #
r mi V
X X j ,i
F=E+ j
.
i =1 j =1 Pi
AIG
C’est une décomposition de F en éléments simples.
0
Théorème 18.10 (décomposition de PP )
m m
Soit P un polynôme non nul et P = λP1 1 × · · · × Pn n sa décomposition en facteurs irréductibles
P0 m 1 P10 m n Pn0
unitaires, alors P = P1 +···+ Pn (décomposition en éléments simples).
1) Forme de la décomposition
r
A
∈ C(X), sous forme irréductible, soit E sa partie entière et soit B = (X − a k )mk la factorisa-
Q
Soit F = B
k=1
tion du dénominateur. Les complexes a k sont les pôles de F, et les entiers m k (> 1) sont les multiplicités
respectives.
D’après l’étude générale, la forme de la décomposition de F sera :
" #
r
X m
Xk b j ,k
F=E+ j
.
k=1 j =1 (X − a k )
MO
b j ,k
Chaque pôle de F va donc générer des éléments simples qui lui correspondent : ce sont les (X−a k ) j
pour
j ∈ J1; m k K.
m
Pk b j ,k
On a donc PF (a k ) = (X−a k ) j
, et la forme de la décomposition de F est :
j =1
F = E + PF (a 1 ) + · · · + PF (a r ).
C’est à dire : partie entière plus les parties polaires relatives aux pôles de F.
NE
– Cas d’un pôle simple : on prend m = 1. On peut écrire B = (X − a)Q avec Q(a) 6= 0. Comme m = 1, la
c
partie polaire de F relative à a est PF (a) = X−a , en regroupant les parties polaires relatives aux autres
c U
pôles, on peut écrire F = E + X−a + V avec E la partie entière et deg( U V ) < 0. En multipliant par X − a
A
on obtient : Q = (X − a)E + c + (X − a) U
V , mais a n’étant pas un pôle de U
V , on peut évaluer en a, ce qui
A(a) 0
donne : c = Q(a) . Comme B = (X − a)Q, il est facile de voir que Q(a) = B (a), en conclusion :
c A(a) A(a)
PF (a) = X−a avec c = B0 (a) = Q(a) où Q est tel que B = (X − a)Q.
ZExemple : Soit F = Xn1−1 avec n > 1. On a deg(F) < 0 donc la partie entière est nulle. Les pôles de F sont
AIG
les racines n-ièmes de l’unité : a k = exp(2i kπ/n) avec k ∈ J0; n − 1K, et ce sont des pôles simples. La
ck 1 ak
partie polaire de F relative à a k est X−a k avec c k = na kn−1
= n . La décomposition de F est :
1 n−1
X ak
n
= .
X − 1 k=0 n(X − a k )
– Cas d’un pôle double : on prend m = 2, on peut écrire B = (X − a)2 Q avec Q(a) 6= 0, la partie polaire de
α β
F relative à a est PF (a) = X−a + (X−a)2 , en regroupant les parties polaires relatives aux autres pôles, on
obtient :
α β U U
F=E+ + 2
+ avec deg( ) < 0.
X − a (X − a) V V
U A(a)
Si on multiplie le tout par (X − a)2 et que l’on évalue en a (a n’est pas un pôle de V ), on obtient β = Q(a) .
β α
Pour obtenir α, on peut poser G = F − (X−a)2 , on a alors G = E + X−a +UV , donc a est un pôle simple de
NT
G, ce qui nous ramène au cas précédent.
A
Autre méthode : on pose H = (X − a)2 × F = Q , on a en fait H = (X − a)2 E + α(X − a) + β + (X − a)2 U
V , en
évaluant en a on trouve β = H(a), et en évaluant la dérivée en a, on trouve α = H0 (a). En conclusion :
α β
PF (a) = X−a + (X−a)2 avec β = H(a) et α = H0 (a), en posant H = (X − a)2 × F.
Remarque 18.8 – Cette autre méthode se généralise au cas d’un pôle a de multiplicité m > 3 en posant
H = (X − a)m × F.
6
ZExemple : Soit F = (X−1)X2 (X3 +1) . La fraction est irréductible et son degré vaut 1, il y a donc une partie entière
MO
non nulle, on trouve E = X + 2 (le dénominateur est égal à X 5 − 2X 4 + X 3 + X 2 − 2X + 1). La fraction possède 4
pôles :
3
* 1 : c’est un pôle double, on pose H = (X − 1)2 × F = XX3 +1 , la partie polaire relative à 1 est :
9/4 1/2
PF (1) = + .
X − 1 (X − 1)2
1/12
PF (−1) = .
X+1
* − j : c’est un pôle simple, la partie polaire relative à − j est :
1/3
PF (− j ) = .
X+ j
1/3
PF (− j 2 ) =
NE
.
X+ j2
3) Cas particuliers
– Si F est à coefficients réels alors :
les parties polaires relatives aux pôles conjugués, sont conjuguées.
Preuve : Si a est un pôle complexe non réel de F de multiplicité m, alors on sait que a est un pôle de F de
même multiplicité car F ∈ R(X), en regroupant les parties polaires relatives aux pôles autres que a, on obtient :
AIG
F = E + PF (a) + U U
V , où E ∈ R[X] est la partie entière, si on conjugue l’expression, alors on obtient : F = E + PF (a) + V .
m m
P ck P ck
Si on pose PF (a) = (X−a)k
, alors PF (a) = (X−a)k
et donc :
k=1 k=1
m
X ck U
F=E+ + ,
k=1 (X − a)k V
U
mais a n’est pas un pôle de , donc PF (a) est la partie polaire de F relative à a, i.e. PF (a) = PF (a).
V
1
ZExemple : Soit F = (X2 +X+1) 2 , deg(F) < 0 donc sa partie entière est nulle. F possède deux pôles doubles
H0 ( j ) H( j ) 1
j et j 2 . La partie polaire relative au pôle j est : PF ( j ) = X− j + (X− j )2 en posant H = (X − j )2 × F = (X− j 2 )2
,
p
on obtient H( j ) = −1/3 et H0 ( j ) = − 2i 9 3 . F étant à coefficients réels, la partie polaire relative à 2
j est la
conjuguée de celle relative à j , la décomposition de F est donc :
p p
NT
−1 2i 3 −1 2i 3
F= − + + .
3(X − j )2 9(X − j ) 3(X − j )2 9(X − j )
– Si F est paire ou impaire, alors en utilisant la relation entre F(X) et F(−X) et avec l’unicité de la décom-
position, on obtient des relations entre les coefficients à déterminer dans les parties polaires.
X 4 +1
ZExemple : Soit F = ,
deg(F) < 0 donc la partie entière est nulle. La fraction est irréductible,
X(X 2 −1)2
impaire, et possède un pôle simple : 0, et deux pôles doubles : 1 et −1. La forme générale de la
décomposition de F est :
a b c d e
F= + + + + .
X X − 1 (X − 1)2 X + 1 (X + 1)2
F étant impaire, on a F(X) = −F(−X), ce qui donne :
MO
a b −c d −e
+ +F= 2
+ + .
X X + 1 (X + 1) X − 1 (X − 1)2
(
d =b
L’unicité de la décomposition nous donne les relations : , ce qui fait deux coefficients en
e = −c
moins à calculer. La partie polaire relative à 0 est PF (0) = X1 (pôle simple). En substituant 1 à X dans
(X − 1)2 × F, on obtient c = 1/2, et en faisant tendre x vers +∞ dans la fonction rationnelle x 7→ xF(x),
on obtient la relation 1 = a + b + d i.e. 2b = 0 d’où b = 0, finalement la décomposition de F est :
1 1 1
F= + − .
X 2(X − 1)2 2(X + 1)2
1) Forme de la décomposition
NE
n r
A
∈ R(X) (sous forme irréductible), soit E sa partie entière et soit B = (X − a k )mk × (X 2 +
Q Q
Soit F = B
k=1 k=1
p k X + q k )αk la factorisation de B en produit de facteurs irréductibles unitaires (p k2 − 4q k < 0). D’après l’étude
générale, la forme de la décomposition de F est :
αk
" # " #
Xn m
Xk b j ,k Xr X c j ,k X + d j ,k
F=E+ j
+ 2 j
.
k=1 j =1 (X − a k ) k=1 j =1 (X + p k X + q k )
La première somme est en fait la somme des parties polaires de F relatives aux pôles réels de F. Les
techniques de calculs sont les mêmes dans le cas complexe.
La seconde somme est la somme des éléments simples de seconde espèce.
AIG
2) Calcul des éléments simples de seconde espèce
On se limitera au cas où X 2 + pX + q est un diviseur irréductible de B de multiplicité 1, en regroupant les
autres éléments simples, on obtient :
aX + b U
F=E+ 2 + .
X + pX + q V
Soient c et c les deux racines complexes (non réelles) de X 2 + pX + q, alors c et c ne sont pas pôles de U V , et c
α
et c sont pôles simples de F, on peut calculer la partie polaire de F relative à c dans C(X) : PF (c) = X−c , comme
α
F ∈ R(X) on a PF (c) = X−c , la somme de ces deux parties polaires donne : PF (c) + PF (c) = 2Re(α)X−2Re(αc)
X 2 +pX+q
, c’est
un élément simple de R(X), comme la décomposition dans R(X) est unique, il en résulte que :
aX + b 2Re(α)X − 2Re(αc)
= .
X 2 + pX + q X 2 + pX + q
NT
Autre méthode : Soit H = (X 2 + pX + q) × F, on a : H = (X 2 + pX + q) × E + aX + b + (X 2 + pX + q) × U
V . on obtient
½
H(c) = ac + b
alors le système : , en résolvant on trouve a et b.
H(c) = ac + b
4
ZExemple : Soit F = XX3 −1 , on a deg(F) = 1, il y a donc une partie entière non nulle, celle-ci vaut X, d’autre part
on a X 3 − 1 = (X − 1)(X 2 + X + 1), d’où la forme de la décomposition :
a bX + c
F=X+ + .
X − 1 X2 + X + 1
1 j2
La partie polaire relative à 1 est PF (1) = 3(X−1) . Dans C(X), la partie polaire relative à j est PF ( j ) = 3(X− j ) , et la
j
partie polaire relative à j 2 est la conjuguée, i.e. PF ( j 2 ) = 3(X− j 2 ) , la somme de ces deux parties polaires donne :
MO
−X+1
3(X 2 +X+1)
, la décomposition de F est donc :
1 −X + 1
F=X+ + .
3(X − 1) 3(X 2 + X + 1)
Remarque 18.9 – En évaluant en 0 on obtient c − a = 0 d’où c = a = 1/3. En faisant tendre x vers +∞ dans
2
x(F(x) − x) = x 3x−1 , on obtient a + b = 0 d’où b = −a = −1/3.
VI APPLICATIONS DE LA DÉCOMPOSITION
1 (−1)n n! (−1)n n!
· ¸
f (n) (x) = − .
2i (x − i )n+1 (x + i )n+1
Ce qui donne :
n
bP
2 c¡
n+1 ¢ k n−2k
2k+1 (−1) x
Im((x + i )n+1 )
NE
k=0
f (n) (x) = (−1)n n! n+1
= (−1)n n! .
2
(x + 1) (x 2 + 1)n+1
FExercice 18.1 Calculer la dérivée n-ième de la fonction f (x) = (x−1)(xx2 +x+1) .
X
Solution 18.1 Soit F = (X−1)(X 2 +X+1)
. La décomposition dans C(X) de F donne :
1 j2 j
F= + + .
3(X − 1) 3(X − j ) 3(X − j 2 )
On a donc :
(−1)n n! j2
· µ ¶¸
1
f (n) (x) = + 2Re ,
3 (x − 1)n+1 (x − j )n+1
j2 j 2 (x− j 2 )n+1
or (x− j )n+1
= (x 2 +x+1)n+1
, ce qui donne finalement :
AIG
n+1
P ¡n+1¢ k n+1−k
k (−1) cos(4(k + 1)π/3)x
(−1)n n! 1 k=0
f (n) (x) = +2 .
(x − 1)n+1 (x 2 + x + 1)n+1
3
Z x (
dt ln(|x − a|) si n = 1
n
= −1
.
(t − a) si n > 2
(n−1)(x−a)n−1
NT
aX+b
– Les éléments simples de seconde espèce : X 2 +pX+q
, pour ceux-là la méthode est la suivante :
2
• on fait apparaître la dérivée du trinôme X + pX + q au numérateur et on compense les X en mul-
tipliant par un facteur adéquat, puis on compense les constantes en ajoutant ce qu’il faut, ce qui
donne :
aX + b a 2X + p ap 1
= + (b − ) .
X 2 + pX + q 2 X 2 + pX + q 2 X 2 + pX + q
0
La première de ces deux fractions est facile à intégrer (du type uu ).
• Pour la deuxième fraction : on met le trinôme X 2 + pX + q sous forme canonique afin de mettre la
u0
fraction sous la forme : α 1+u 2 où u est une fonction de x, cette fonction est s’intègre en α arctan(u).
R x dt
ZExemple : Calculons F(x) = t 3 +1 sur ] − 1; +∞[ :
On décompose la fraction rationnelle X31+1 en éléments simples dans R(X), ce qui donne :
MO
1 1 X−2
= − .
X3 + 1 2
3(X + 1) 3(X − X + 1)
On a :
X−2 1 2X − 1 3 1
= −
X2 − X + 1 2
2 X −X+1 2 X −X+1 2
et : p
1 1 2 2/ 3
= =p ³ ´2 .
X 2 − X + 1 (X − 1/2)2 + 3/4 3 2X−1
p +1
3
On en déduit alors : p
1 1 2 3 2x − 1
F(x) = ln(x + 1) − ln(x − x + 1) + arctan( p ).
3 6 3 3
C’est à dire : p
1 x +1 3 2x − 1
F(x) = ln( p )+ arctan( p ) + cte.
3 x2 − x + 1 3 3
Espaces vectoriels
AIG
Sommaire
I Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
2) Exemples de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
3) Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
4) Sous-espaces vectoriels d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . 171
II Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
1) Définition, noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
3) S.e.v. et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
III S.e.v. d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
1) Sous-espace engendré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
2) Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
3) Sommes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
NT
4) S.e.v. supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
IV Projections, symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
1) Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
2) Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
I GÉNÉRALITÉS
1) Définition
MO
Définition 19.1
Soit E un ensemble non vide, on dit que E est un K - espace vectoriel (ou K-e.v.) lorsque E possède une
addition et un produit par les scalaires (loi de composition externe, notée « . », c’est une application :
K×E → E
), avec les propriétés suivantes :
(λ, x) 7→ λ.x
−→
– (E, +) est un groupe abélien (l’élément neutre est noté 0E ou 0E et appelé vecteur nul de E).
– La loi . (ou produit par les scalaires) doit vérifier : ∀ λ, µ ∈ K, ∀ x, y ∈ E :
• 1.x = x
• λ.(x + y) = λ.x + λ.y
• (λ + µ).x = λ.x + µ.x
• λ.(µ.x) = (λµ).x
Si ces propriétés sont vérifiées, on dit que (E, +, .) est un K - e.v., les éléments de K sont appelés les
scalaires et les éléments de E sont appelés vecteurs (parfois notés avec une flèche).
NE
2) Exemples de référence
ZExemples :
– Un corps K est un K-e.v..
– R est un Q-e.v., C est un Q-e.v., C est un R-e.v. Plus généralement si K est corps inclus dans un autre
corps L, alors L est un K-e.v..
– L’ensemble Kn muni des opérations suivantes :
(x 1 , . . . , x n ) + (y 1 , . . . , y n ) = (x 1 + y 1 , . . . , x n + y n ) et λ.(x 1 , . . . , x n ) = (λx 1 , . . . , λx n ),
AIG
l’application nulle. En particulier (C n (I, K), +, .) sont des K-e.v., ainsi que l’espace des suites à valeurs
dans K.
Plus généralement, si E est un K-e.v., l’ensemble des applications de I vers E : F (I, E), pour les opéra-
tions usuelles sur les fonctions, est un K-e.v..
– (K[X], +, .), (K(X), +, .) sont des K-espaces vectoriels.
– Espace produit : Soient E et F deux K-e.v., on définit sur E × F l’addition : (x, y) + (x 0 , y 0 ) = (x + x 0 , y + y 0 ),
et un produit par les scalaires : λ.(x, y) = (λ.x, λ.y). On peut vérifier alors que (E × F, +, .) est un K-e.v., le
vecteur nul étant (0E , 0F ). Cela se généralise au produit cartésien d’un nombre fini de K-e.v.
3) Règles de calculs
Soit E un K-e.v.
→
− →
− → −
– ∀→−
x ∈ E, 0.→
−
x = 0 , et ∀ λ ∈ K, λ. 0 = 0 .
– ∀→−
x ∈ E, ∀ λ ∈ K, −(λ.→−
x ) = (−λ).→−
x = λ.(−→−
x ).
→
− →
− →
− →
− →
−
– ∀ x ∈ E, ∀ λ ∈ K, λ. x = 0 =⇒ λ = 0 ou x = 0 .
NT
4) Sous-espaces vectoriels d’un espace vectoriel
Définition 19.2
Soit E un K-e.v. et soit H un ensemble, on dit que H est un sous-espace vectoriel de E (ou s.e.v de E)
lorsque :
– H ⊂ E, H 6= ;.
– ∀ x, y ∈ H, x + y ∈ H (H est stable pour l’addition).
– ∀ x ∈ H, ∀ λ ∈ K, λ.x ∈ H (H est stable pour la loi .).
Si c’est le cas, alors il est facile de vérifier que (H, +, .) est lui-même un K-e.v.
ZExemples :
– L (E, F) est un s.e.v. de F (E, F).
MO
NE
II APPLICATIONS LINÉAIRES
1) Définition, noyau
Définition 19.3
Soient E et F deux K-e.v. et soit f : E → F une application, on dit que f est une application linéaire (ou
morphisme de K-espaces vectoriels), lorsque :
∀ x, y ∈ E, ∀ λ ∈ K, f (x + y) = f (x) + f (y) et f (λ.x) = λ. f (x).
Si de plus, f est bijective, alors on dit que f est un isomorphisme (d’espaces vectoriels). L’ensemble
des applications linéaires de E vers F est noté L (E, F).
AIG
Remarque 19.1 – Les applications linéaires de K dans K sont les applications de la forme f (x) = ax (a ∈ K),
car f (x) = x f (1).
ZExemples :
– L’application nulle (notée 0) de E vers F est linéaire.
– L’application identité de E : idE : E → E définie par idE (x) = x, est linéaire bijective (et (idE )−1 = idE ).
– Soit λ ∈ K∗ , l’homothétie de rapport λ : h λ : E → E, définie par h λ (x) = λ.x, est linéaire et bijective. Sa
réciproque est l’homothétie de rapport 1/λ. L’ensemble des homothéties de E est un groupe pour la loi
◦ car c’est un sous-groupe du groupe des permutations de E.
– L’application f : K2 → K2 définie par f (x, y) = (x; −y) est un isomorphisme de K2 sur lui-même.
À retenir
f ∈ L (E, F) alors f (0E ) = 0F et ∀x ∈ E, f (−x) = − f (x).
NT
Définition 19.4 (vocabulaire)
– Une application linéaire de E vers E est appelée un endomorphisme de E. L’ensemble des endo-
morphismes de E est noté L (E) (on a donc L (E) = L (E, E)).
– Un isomorphisme de E vers E est appelé un automorphisme de E. L’ensemble des automorphismes
de E est noté GL(E) et appelé groupe linéaire de E.
– Une application linéaire de E vers K est appelée une forme linéaire sur E. L’ensemble des formes
linéaires sur E est noté E∗ et appelé dual de E (on a donc E∗ = L (E, K)).
ZExemples :
MO
ZExemples :
– Le noyau d’une application linéaire bijective est {0E }.
– Le noyau de l’application linéaire d : K[X] → K[x] définie par d (P) = P 0 est ker(d ) = K.
NE
– Le noyau de l’application linéaire f : K3 → K2 définie par f (x, y, z) = (x + y + z, x − 2y − z) est ker( f ) =
{(x, 2x, −3x / x ∈ K}.
2) Propriétés
Il est facile de vérifier les propriétés suivantes :
– f ∈ L (E, F) est injective si et seulement si ker( f ) = {0E }.
– La composée de deux applications linéaires est linéaire. On en déduit que GL(E) est stable pour la loi ◦.
– Si f ∈ L (E, F) est un isomorphisme, alors f −1 ∈ L (F, E). On en déduit que GL(E) est stable par symétri-
sation, i.e. si f ∈ GL(E), alors f −1 ∈ GL(E).
– (GL(E), ◦) est un groupe (non abélien en général), c’est en fait un sous-groupe du groupe des permuta-
AIG
tions de E : (S E , ◦).
– Si f , g ∈ L (E, F) et si λ ∈ K, alors f + g et λ. f sont linéaires. On en déduit que (L (E, F), +, .) est un K-e.v.
(s.e.v. de F (E, F)).
– (L (E), +, ◦) est un anneau, la loi ◦ jouant le rôle d’une multiplication.
Remarque 19.2 –
– En général, l’anneau L (E) n’est pas commutatif. Le groupe des inversibles de cet anneau est GL(E).
– La loi ◦ jouant le rôle d’une multiplication, on adopte les notations usuelles des anneaux pour les
puissances, i.e. si u ∈ L (E) et si n est entier, alors :
idE
si n = 0
un = u ◦···◦u n fois si n > 0 ,
u −1 ◦ · · · ◦ u −1
−n fois si u est inversible et n < 0
de plus si u, v ∈ L (E) commutent (i.e. u ◦ v = v ◦ u), alors on peut utiliser le binôme de Newton :
NT
à !
n n
n
u k ◦ v n−k
X
(u + v) =
k=0 k
– Soit E = K2 et f : (x; y) 7→ (y; 0), on vérifie facilement que f ∈ L (E) et que f 2 = 0 (application nulle),
pourtant f 6= 0. Cet exemple montre qu’en général L (E) n’est pas un anneau intègre.
À retenir
Soit f ∈ L (E, F) alors f est un isomorphisme si et seulement si ker( f ) = {0E } et Im( f ) = F.
Preuve : Il suffit de considérer la restriction de f à H : g : H → F définie par ∀ x ∈ H, g (x) = f (x), il est clair que g est
linéaire et que f (H) = Im(g ), on peut appliquer alors le théorème précédent.
Théorème 19.4 (image réciproque d’un s.e.v par une application linéaire)
Soit H un s.e.v de F et soit f ∈ L (E, F) alors f −1 (H) (ensemble des antécédents des éléments de H par
NE
f ) est un s.e.v de E.
AIG
Définition 19.6 (hyperplan)
Soit H un s.e.v de E, on dit que H est un hyperplan de E lorsqu’il existe une forme linéaire φ sur E,
non identiquement nulle, telle que H = ker(φ).
1) Sous-espace engendré
ZExemples :
– Vect [0E ] = {0E }.
– Si x ∈ E \ {0E }, alors Vect [x] = {λx / λ ∈ K}, c’est un s.e.v de E appelé droite vectorielle engendrée par x.
On dit que x est un vecteur directeur de cette droite. Les autres vecteurs directeurs sont les vecteurs de
la forme λx avec λ 6= 0.
£ ¤
– Soient x, y ∈ E deux vecteurs non nuls, si les deux vecteurs sont colinéaires, alors Vect x, y = Vect [x] =
MO
£ ¤
Vect y (droite vectorielle). Si ces deux vecteurs sont non colinéaires, alors :
Vect x, y = αx + βy / α, β ∈ K
£ ¤ © ª
c’est un s.e.v de E, on l’appelle plan vectoriel engendré par x et y, il contient (strictement) les deux
droites engendrées par x et y.
– Dans K3 déterminer une équation cartésienne du plan vectoriel engendré par les vecteurs x = (1, 1, 1)
et y = (0, −1, 1).
Théorème 19.5 (image d’une combinaison linéaire par une application linéaire)
Soit E un K-e.v et soit (x i )16i 6n une famille de vecteurs de E. Soit f ∈ L (E, F), alors l’image par f d’une
combinaison linéaire de la famille (x i )16i 6n et une combinaison linéaire de la famille ( f (x i ))16i 6n
(dans F) avec les mêmes coefficients.
NE
Preuve : Par récurrence sur n : pour n = 1 il n’y a rien à démontrer. Supposons le théorème vrai au rang n, et soit
x = λ1 x 1 + · · · + λn+1 x n+1 , f étant linéaire, on peut écrire f (x) = f (λ1 x 1 + · · · + λn x n ) + λn+1 . f (x n+1 ), on applique alors
l’hypothèse de récurrence pour conclure.
Remarque 19.3 – Si X est une partie de E, on notera Vect [X] l’ensemble des combinaisons linéaires des vecteurs
de X. On peut écrire : ½ ¾
αx x / (αx )x∈X est une famille de scalaires tous nuls sauf un nombre fini .
P
Vect [X] =
AIG
x∈X
De telles familles de scalaires sont appelées familles à support fini. Le théorème 19.5 se généralise alors
ainsi :
Si f ∈ L (E, F) alors f ( αx x) = αx f (x), pour toute famille de scalaires (αx )x∈X à support fini.
P P
x∈X x∈X
Théorème 19.7
Une somme de s.e.v de E est un s.e.v de E.
Preuve : F1 , . . . , Fp sont des s.e.v de E , donc ce sont en particulier des K-e.v, par conséquent le produit cartésien
F1 × · · · × Fp est lui-même un K-e.v. On considère alors l’application f : F1 × · · · × Fp → E définie par f (u 1 , . . . , u p ) =
u 1 + · · · + u p . On vérifie facilement que f est linéaire, il est clair d’après la définition que F1 + · · · + Fp = Im( f ), et donc
c’est un s.e.v de E.
ZExemples :
– Dans K3 , posons i = (1, 0, 0), j = (0, 1, 0), k = (0, 0, 1), on peut vérifier que K3 = Vect [i ] + Vect j +
£ ¤
£ ¤ £ ¤
Vect [k] = Vect i , j + Vect [k] = Vect [i ] + Vect j , k .
£ ¤ £ ¤
– Soient x, y ∈ E deux vecteurs, on a Vect [x]+Vect y = Vect x, y . Plus généralement, on peut remplacer
x et y par deux familles de vecteurs de E (et cela se généralise à plus de deux).
3) Sommes directes
NE
Définition 19.10 (somme directe)
Soient F1 , . . . , Fp des s.e.v de E, on dit que la somme F1 + · · · + Fp est directe lorsque tout vecteur de
cette somme s’écrit de manière unique sous la forme u 1 + · · · + u p avec u i ∈ Fi , 1 6 i 6 p. Si c’est le
cas, la somme est notée F1 ⊕ · · · ⊕ Fp .
AIG
d) l’application linéaire φ : F1 × · · · × Fp → E définie par φ(x 1 , . . . , x p ) = x 1 + · · · + x p est injective.
Pp Pp Pp
Preuve : Montrons a) =⇒ b) : soient x i ∈ Fi tels que i =1 x i = 0E , alors i =1 x i = i =1 0E , or 0E est dans chaque Fi ,
l’unicité permet de conclure que x i = 0E .
Montrons que b) =⇒ c) : soient x 1 ∈ F1 ∩ (F2 + · · · + Fp ) alors il existe x 2 ∈ F2 , . . . , x p ∈ Fp tels que x 1 = x 2 + · · · + x p ,
alors x 1 − x 2 − · · · − x p = 0E avec −x i ∈ Fi , et donc chacun de ces vecteurs est nul, en particulier x 1 . Le raisonnement est
le même si on permute les indices.
Montrons c) =⇒ d ) : si (x 1 , . . . , x p ) ∈ ker(φ) alors x 1 + · · · + x p = 0E et donc x 1 = −x 2 − · · · − x p , or ce vecteur est dans
F2 + · · · + Fp , donc x 1 = 0E , le même façon on montre que les autres sont nuls et donc que φ est injective.
Montrons que d ) =⇒ a) : Si x 1 + · · · + x p = y 1 + · · · + y p avec x i , y i ∈ Fi , alors (x 1 − y 1 ) + · · · + (x p − y p ) = 0E , donc
(x 1 − y 1 , . . . , x p − y p ) ∈ ker(φ) (car x i − y i ∈ Fi ), φ étant injective il vient que x i − y i = 0E d’où l’unicité de la décomposition,
la somme est donc directe.
ZExemples :
– Dans F (R, R) le s.e.v des fonctions paires et le s.e.v des fonctions impaires sont en somme directe.
NT
– Dans K3 le plan P d’équation x + y + z = 0 et la droite engendrée par le vecteur i = (1, 1, 1) sont en
somme directe, mais P n’est pas en somme directe avec le plan P 0 engendré par i et j = (1, −1, 1).
À retenir
Cas de deux s.e.v. : F1 et F2 , s.e.v. de E, sont en somme directe si et seulement si F1 ∩ F2 = {0E }.
4) S.e.v. supplémentaires
MO
ZExemples :
– Dans F (R, R) le s.e.v des fonctions paires et le s.e.v des fonctions impaires sont supplémentaires.
Rb
– Dans E = C 0 ([a; b], R) le s.e.v H = { f ∈ E / a f = 0} et le s.e.v G = Vect [idR ] sont supplémentaires.
Preuve : Montrons que a) =⇒ b) : soit x 0 ∈ E \ H, comme x 0 n’est pas dans H, il est facile de voir que H et Vect [x 0 ] sont
NE
en somme directe. Soit φ une forme linéaire (non nulle) telle que ker(φ) = H, on a φ(x 0 ) = α 6= 0, soit x ∈ E et λ = φ(x),
posons y = x − αλ x 0 , on a φ(y) = 0, donc y ∈ H et de plus x = y + αλ x 0 , ce qui prouve que E = H + Vect [x 0 ].
Montrons que b) =⇒ c) : rien à faire.
Montrons que c) =⇒ a) : Pour x ∈ E, il existe y ∈ H et λ ∈ K, uniques tels que x = y + λx 0 . Posons φ(x) = λ. On
définit ainsi une application non nulle de E vers K, on peut vérifier ensuite que φ est bien linéaire (laissé en exercice),
x ∈ ker(φ) ⇐⇒ λ = 0 ⇐⇒ x = y ⇐⇒ x ∈ H, donc ker(φ) = H, ce qui prouve que H est un hyperplan.
IV PROJECTIONS, SYMÉTRIES
1) Projecteurs
Définition 19.12
AIG
Soit E un K-e.v, une projection dans E (ou un projecteur de E) est un endomorphisme p de E tel que
p 2 = p (i.e. p ◦ p = p).
ZExemples :
– E = K2 et p(x, y) = (x, 0).
f (x)+ f (−x)
– E = F (R, R) et p qui à f ∈ E associe p( f ) : x 7→ 2 .
Remarque 19.4 – Invariants d’un endomorphisme : si f ∈ L (E), alors x ∈ E est invariant par f (ou un point
fixe de f ) si et seulement si f (x) = x, ce qui équivaut à ( f − idE )(x) = 0E , ou encore x ∈ ker( f − idE ). L’ensemble
des points fixes de f est donc le s.e.v ker( f − idE ).
Preuve : Si p est un projecteur, soit x ∈ ker(p) ∩ ker(p − idE ), alors p(x) = 0E = x, donc la somme est directe. Soit x ∈ E,
alors p(x − p(x)) = p(x) − p 2 (x) = 0E , donc x − p(x) ∈ ker(p), on a alors x = (x − p(x)) + p(x) et p(x) ∈ ker(p − idE ),
donc E = ker(p) ⊕ ker(p − idE ). De la définition, il découle que Im(p) ⊂ ker(p − idE ), l’inclusion étant évidente, on a
Im(p) = ker(p − i d E ).
Réciproque : si E = ker(p) ⊕ ker(p − idE ), soit x ∈ E, alors x = y + z avec y ∈ ker(p) et z ∈ ker(p − idE ), d’où p(x) =
p(y) + p(z) = p(z) = z, et donc p 2 (x) = p(z) = z = p(x), ce qui prouve que p est un projecteur.
ker(p)
x
MO
x − p(x)
Im(p)
ZExemples :
– Dans le premier exemple, p est la projection sur la droite Vect [(1, 0)] et parallèlement à la droite
Vect [(0, 1)].
– Dans le deuxième exemple, p est la projection sur le s.e.v des fonctions paires, parallèlement au s.e.v
des fonctions impaires.
NE
Théorème 19.11 (projection associée à une décomposition)
Si F et G sont deux s.e.v de E supplémentaires (E = F ⊕ G), alors il existe une unique projection p telle
que Im(p) = F et ker(p) = G, i.e. qui soit la projection sur F parallèlement à G.
Preuve : Pour x ∈ E, il existe x F ∈ F et x G ∈ G, uniques tels que x = x F + x G , on pose alors p(x) = x F , ce qui définit une
application de E dans E. On vérifie facilement que p est linéaire, et comme x F ∈ F, on a par définition même de p, que
p 2 (x) = x F = p(x), donc p est bien un projecteur. On a p(x) = 0E ⇐⇒ x F = 0E ⇐⇒ x = x G ⇐⇒ x ∈ G, donc ker(p) = G,
d’autre part, p(x) = x ⇐⇒ x = x F ⇐⇒ x ∈ F, donc ker(p − idE ) = F, ce qui termine la preuve.
ZExemples :
– Soit E = K3 , F = {(x, y, z) ∈ E / z = 0} et G = Vect [(1, 1, 1)]. Montrer que F et G sont supplémentaires, et
déterminer l’expression analytique de la projection sur F parallèlement à G.
AIG
– Soit p un projecteur de E, montrer que q = idE − p est un projecteur, préciser ses éléments caractéris-
tiques.
2) Symétries
Définition 19.13
Soit E un K-e.v, une symétrie de E est un endomorphisme s tel que s 2 = idE (involution linéaire).
ZExemples :
– Dans E = K2 , l’application s définie par s(x, y) = (y, x) est une symétrie.
– Dans E = F (R, R) l’application s définie par s( f ) est la fonction qui à s( f ) : x 7→ f (−x), est une symétrie.
Preuve : Posons p = 12 (idE + s), s est une symétrie équivaut à s 2 = idE , c’est à dire (2p − idE )2 = idE , ou encore p 2 = p, ce
qui équivaut à dire que E = ker(p) ⊕ ker(p − idE ), et donc E = ker(s + idE ) ⊕ ker(s − idE ).
x − p(x)
ker(p − id)
p(x) ker(s − id)
p(x) − x
s(x)
NE
que ker(s − idE ) = F et ker(s + idE ) = G, i.e. qui soit la symétrie par rapport à F et parallèlement à G.
Preuve : Soit p la projection sur F parallèlement à G, posons s = 2p − idE , on sait alors que s est une symétrie et
ker(s − idE ) = ker(p − idE ) = F et ker(s + idE ) = ker(p) = G, donc s existe. Réciproquement, si s existe, alors la projection
associée est nécessairement la projection sur F parallèlement à G, or celle-ci est unique, c’est p, donc s est unique.
ZExemples :
– Dans le premier exemple ci-dessus, s est la symétrie par rapport à la droite Vect [(1, 1)] et parallèlement
à la droite Vect [(1, −1)].
– Dans le deuxième exemple, s est la symétrie par rapport au s.e.v des fonctions paires, et parallèlement
au s.e.v des fonctions impaires.
AIG
NT
MO
La dimension finie
Sommaire
AIG
I Espaces de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
1) Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
2) Familles libres, familles liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
3) Familles libres et familles liées en dimension finie . . . . . . . . . . . . . . . . . . . . . 183
II Propriétés de la dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
1) Bases, coordonnées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
2) Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
3) Applications linéaires et dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
III Notion de rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
1) Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
2) Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
3) Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
IV Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
NT
1) Hyperplans en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
2) Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
3) Équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
1) Familles génératrices
Définition 20.1
Soit E un K-e.v, et soit A une famille de vecteurs de E, on dit que la famille A est une famille génératrice
de E lorsque E = Vect [A]. Ce qui signifie que tout vecteur de E est combinaison linéaire d’un nombre
MO
fini de vecteurs de A.
ZExemples :
– Soit E = Kn , pour i ∈ J1; n K, on pose e i = (δi ,1 , . . . , δi ,n ), alors la famille A = (e 1 , . . . , e n ) est une famille
n
P
génératrice de E, car (x 1 , . . . , x n ) = xi e i .
i =1
– Soit E = Kn [X], la famille A = (X i )06i 6n est une famille génératrice de E.
– Soit E = K[X], la famille A = (X i )i ∈N est une famille génératrice de E.
– Soit E = C 0 (R, R), la famille A = ( f k )06k 6n où f k : x 7→ e kx , n’est pas une famille génératrice de E. Si elle
n n
a k X k , on aurait alors pour tout
P P
l’était, il existerait des réels a k tels que sin = a k f k , en posant P =
k=0 k=0
réel x : sin(x) = P(e x ), la fonction sin s’annulant une infinité de fois et la fonction exp étant injective, on
voit que P possède une infinité de racines, donc P = 0 i.e. tous les réels a k sont nuls et donc la fonction
sin est nulle, ce qui est absurde.
NE
– Toute sur-famille de A est génératrice, i.e. si B est une famille de vecteurs de E telle que A ⊂ B, alors
B est génératrice.
– Si f ∈ L (E, F), alors B = ( f (x))x∈A est une famille génératrice de Im( f ).
– Soit f ∈ L (E, F), alors f est surjective si et seulement si f (A) est une famille génératrice de F.
Preuve : Le premier point est évident. Si f ∈ L (E, F), soit y ∈ Im( f ), alors il existe x ∈ E tel que f (x) = y, mais A est
b
génératrice de E, donc il existe x 1 , . . . , x n ∈ A et des scalaires α1 , . . . , αn tels que x = αi x i , f étant linéaire, on a alors
P
i =1
n
αi f (x i ), ce qui prouve que B est génératrice de Im( f ). Le troisième point en découle.
P
f (x) =
i =1
FExercice 20.1 Les familles suivantes sont-elles génératrices dans K3 ?
– A = {(1, 1, 1); (−1, 0, 2); (1, 2, 3)}.
AIG
– A = {(1, 1, 1), (1, 2, 3)}.
ZExemples :
– Kn est de dimension finie.
– Kn [X] est de dimension finie.
– K[X] est de dimension infinie. En effet : sinon, il existerait une famille de polynômes P1 , . . . , Pn telle que
K[X] = Vect [P1 , . . . , Pn ], mais alors tout polynôme aurait un degré inférieur ou égal à max(deg(P1 ), . . . , deg(Pn )),
ce qui est absurde. Nous verrons plus loin que F (R, R) est également de dimension infinie.
NT
Théorème 20.2
Soit E un K-e.v de dimension finie :
– Si f ∈ L (E, F), alors Im( f ) est de dimension finie. En particulier lorsque f est surjective, F est de
dimension finie.
– Si F est de dimension finie, alors E × F est de dimension finie également.
Preuve : Le premier point découle directement du théorème précédent. Si (x 1 , . . . , x n ) est une famille génératrice de E
et si (y 1 , . . . , y p ) est une famille génératrice de F, alors pour (x, y) ∈ E × F, on a :
n p
αi x i , βk y k ) = αi (x i , 0F ) + βk (0E , y k ),
X X X X
(x, y) = (
i =1 k=1 16i 6n 16k 6p
MO
ce qui prouve que la famille ((x i , 0F ); (0E , y k ))16i 6n,16k 6n est une famille génératrice finie de E × F.
Définition 20.3
Soit (x i )i ∈I une famille de vecteurs d’un K-e.v E, on dit que :
– La famille est libre lorsque la seule combinaison linéaire de la famille qui donne le vecteur nul est
celle pour laquelle tous les coefficients sont nuls (on dit aussi que les vecteurs sont linéairement
indépendants), c’est à dire :
αi x i = 0E =⇒ ∀ i ∈ I, αi = 0.
P
i ∈I
– La famille est dite liée lorsqu’elle n’est pas libre (on dit aussi que les vecteurs sont linéairement
dépendants), ce qui signifie qu’il existe une famille de scalaires à support fini (αi )i ∈I non tous nuls
tels que :
αi x i = 0E .
P
i ∈I
NE
Théorème 20.3 (caractérisation des familles liées)
La famille (x i )i ∈I est liée si et seulement si un des vecteurs de la famille est combinaison linéaire des
autres.
Remarque 20.1 – Soient x, y ∈ E, alors la famille (x, y) est liée si et seulement si les deux vecteurs sont coli-
AIG
néaires.
ZExemples :
– E = Kn , la famille A = (e 1 , . . . , e n ) avec e i = (δi ,1 , . . . , δi ,n ) est une famille libre.
– E = Kn [X], la famille A = (X i )06i 6n est une famille libre.
– E = K[X], la famille A = (X i )i ∈N est une famille libre.
– E = C 0 ([a; b], C), pour k ∈ J0; n K on pose f k : x 7→ e kx , alors la famille A = ( f k )k∈N est libre.
– E = K2 , soit i = (1, 1), j = (1, 2) et k = (4, 3), la famille A = (i , j , k) est une famille liée.
– Soit E = C 0 (R, R) pour k ∈ J1; n K on pose f k : x 7→ sin(kx). Montrer par récurrence sur n que la famille
A = ( f k )k >1 est libre.
n
αk f k = 0, on a donc pour
P
Il est clair que ( f 1 ) est libre, supposons que ( f 1 , . . . , f n−1 ) soit libre et supposons que
k=1
n n
αk sin(kx) = 0, en dérivant deux fois cette relation, on obtient : k 2 αk sin(kx) = 0, en
P P
tout réel x de [a; b] :
k=0 k=1
n−1
lui retranchant n 2 fois la première, on obtient : (k 2 − n 2 )αk f k = 0, de l’hypothèse de récurrence on déduit que
P
NT
k=1
αk = 0 pour k ∈ J1; n − 1K, il reste alors αn f n = 0 et donc αn = 0.
– La famille (x i )i ∈I est libre si et seulement si ∀ x ∈ Vect [(x i )i ∈I ], x s’écrit de manière unique comme
combinaison linéaire des vecteurs (x i )i ∈I .
– Soit (x i )i ∈I une famille libre, alors ∀ x ∈ E, x ∈ Vect [(x i )i ∈I ] ⇐⇒ {x, (x i )i ∈I } est liée.
Preuve : Démontrons les trois derniers points, il suffit de les démontrer pour toute famille finie :
n n
αk f (x k ) = 0F , alors αk x k ∈ ker( f ), donc
P P
Si f est injective et si (x 1 , . . . , x n ) est libre dans E, supposons que
k=1 k=1
n
αk x k = 0E , mais cette famille étant libre, les coefficients αk sont tous nuls.
P
k=1
Si f transforme une famille libre en une famille libre : si x ∈ ker( f ) et si x 6= 0E , alors (x) est libre, donc ( f (x)) est
libre i.e. f (x) 6= 0F ce qui est absurde, donc x = 0E et f est injective.
n n n
αk x k = βk x k , alors (αk − βk )x k = 0E et donc, la famille étant libre, αk = βk
P P P
Si (x 1 , . . . , x n ) est libre et si x =
k=1 k=1 k=1
pour k ∈ J1; n K.
n
αk x k = 0E =⇒ ∀ k ∈ J1; n K , αk = 0, i.e. la famille est libre.
P
Réciproquement, si l’écriture est unique alors
k=1
n
αk x k ce qui prouve que la famille (x 1 , . . . , x n , x) est liée.
P
Si x ∈ Vect [x 1 , . . . , x n ], alors x =
k=1
n
Réciproque : si (x 1 , . . . , x n , x) est liée, alors il existe des scalaires αk pour k ∈ J1; n + 1K tels que αk x k + αn+1 x = 0E ,
P
NE
k=1
n
si αn+1 = 0, alors il reste αk x k = 0E donc tous les scalaires αk sont nuls, ce qui est contradictoire, d’où αn+1 6= 0, ce
P
k=1
n
P αk
qui entraîne x = − αn+1 x k .
k=1
AIG
Preuve : Par récurrence sur n : pour n = 1 on a E = Vect [x 1 ] soit x, y ∈ E, x = αx 1 et y = βx 1 . Si α = 0 alors x = 0E et la
famille (x, y) est liée, sinon on a y = β/αx et donc la famille (x, y) est liée.
Supposons le théorème vrai au rang n et soit (x 1 , . . . , x n+1 ) une famille génératrice de E, soit (y 1 , . . . , y n+2 ) une famille
de vecteurs de E, on pose F = Vect [x 1 , . . . , x n ]. Si tous les vecteurs y i sont dans F alors on peut appliquer l’hypothèse
de récurrence et la famille (y 1 , . . . , y n+2 ) est liée, dans le cas contraire, supposons y n+2 ∉ F, pour tout j ∈ J1; n + 2K il
existe un scalaire λ j et un vecteur u j de F tels que y j = u j + λ j x n+1 , on a donc λn+2 6= 0, on en déduit x n+1 en fonction
λj λj λj
de u n+2 et y n+2 , d’où pour j ∈ J1; n + 1K : y j = u j − λn+2 u n+2 + λn+2 y n+2 , mais la famille (u j − λn+2 u n+2 ) j ∈J1;n+1K est liée
λj
dans F (hypothèse de récurrence), donc la famille (y j − λn+2 y n+2 ) j ∈J1;n+1K est liée dans E, ce qui entraîne que la famille
(y 1 , . . . , y n+2 ) est liée dans E.
ZExemples :
– E = Kn , pour i ∈ J1; n K, on pose e i = (δi ,1 , . . . , δi ,n ), on a vu en exemple que la famille A = (e 1 , . . . , e n ) est
génératrice, donc dans Kn , toute famille de n + 1 vecteurs (ou plus) est liée.
– E = Kn [X], on sait que la famille A = (X 0 , . . . , X n ) est génératrice, donc dans Kn [X] toute famille de n + 2
NT
vecteurs (ou plus) est liée.
– E = F (R, C) est de dimension infinie, sinon il existe une famille génératrice finie A = ( f 1 , . . . , f n ), mais
alors toute famille de n + 1 vecteurs est liée, or la famille (g 0 , . . . , g n ) où g k : x 7→ e kx , est une famille
libre, on a donc une contradiction, ce qui prouve que E est de dimension infinie.
Théorème 20.6
Si E est de dimension finie et si (x 1 , . . . , x n ) est une famille libre, alors toute famille génératrice de E
contient au moins n vecteurs.
Preuve : Soit (y 1 , . . . , y m ) une famille génératrice de E, si n > m, alors d’après le théorème fondamental, la famille
(x 1 , . . . , x n ) est liée, ce qui est contradictoire, donc m > n.
MO
1) Bases, coordonnées
Définition 20.4
Soit E un K-e.v et soit B = (e 1 , . . . , e n ) une famille de vecteurs de E, on dit que B est une base de
E lorsque B est à la fois libre et génératrice de E. Si c’est le cas, alors ∀ x ∈ E, ∃!(λ1 , . . . , λn ) ∈ Kn ,
n
λk x k . Par définition (λ1 , . . . , λn ) sont les coordonnées de x dans la base B, et on
P
tel que x =
k=1
pose CoordB (x) = (λ1 , . . . , λn ) ∈ Kn (on fera attention à l’ordre sur les vecteurs de la base B, λi est la
coordonnée de x sur le vecteur e i ).
ZExemples :
– E = Kn , la famille B = (e 1 , . . . , e n ) où e i = (δi ,1 , . . . , δi ,n ) pour i ∈ J1; n K, est une famille libre et génératrice
de Kn , c’est donc une base, on l’appelle base canonique de Kn . Si u = (λ1 , . . . , λn ) ∈ Kn , alors on sait que
NE
n
λk e k , donc CoordB (u) = (λ1 , . . . , λn ), c’est à dire : dans la base canonique de Kn les coordonnées
P
u=
k=1
d’un vecteur u sont les composantes de u.
– E = Kn [X], on sait que la famille B = (X 0 , . . . , X n ) est libre et génératrice de Kn [X], c’est donc une base de
n
Kn [X], on l’appelle base canonique de Kn [X]. Si P = λk X k ∈ Kn [X], alors CoordB (P) = (λ0 , . . . , λn ),
P
k=0
c’est à dire : dans la base canonique de Kn [X], les coordonnées d’un polynôme P sont les coefficients
de P.
– Dans Kn [X], soit a ∈ K, d’après la formule de Taylor en a, la famille B = ((X − a)k )k∈J0;n K est une famille
n
P (k) (a) k
libre et génératrice de Kn [X], c’est donc une base. Pour P ∈ Kn [X], on sait que P =
P
k! (X − a) ,
k=0
(n)
donc CoordB (P) = (P(a), P 0
(a), . . . , P n!(a) ).
AIG
FExercice 20.2 E = K2 , on pose i = (1, 1) et j = (1, 2), montrer que B = (i , j ) est une base de E, et pour u = (x, y) ∈ E,
calculer CoordB (u).
Preuve : Soit (x 1 , . . . , x n ) une famille génératrice de E, si tous ces vecteurs sont nuls, alors E = {0E } ce qui est exclu, donc
au moins un des vecteurs de la famille est non nul, on peut donc considérer les sous-familles de (x 1 , . . . , x n ) qui sont
libres et en prendre une de cardinal maximal : (x i 1 , . . . , x i r ). Posons y j = x i j pour j ∈ J1; r K, lorsque k ∉ {i 1 , . . . , i r } on a
£ ¤ £ ¤
(y 1 , . . . , y r , x k ) est liée (maximalité de r ), donc x k ∈ Vect y 1 , . . . , y r , mais alors Vect [x 1 , . . . , x n ] ⊂ Vect y 1 , . . . , y r , ce qui
entraîne que (y 1 , . . . , y r ) est une famille génératrice de E, comme elle est libre, c’est une base de E.
Preuve : Soit B = (e 1 , . . . , e n ) une base de E, cette famille est libre, donc toute famille génératrice possède au minimum
n vecteurs, mais cette famille est également génératrice, donc toute famille libre contient au maximum n vecteurs,
finalement, toute base de E, étant à la fois libre et génératrice, contient exactement n vecteurs.
ZExemples :
– La base canonique de Kn contient n vecteurs, donc dimK (Kn ) = n.
– La base canonique de Kn [X] contient n + 1 vecteurs, donc dimK (Kn [X]) = n + 1.
– C = R2 donc dimR (C) = 2, mais dimC (C) = 1.
– Une droite vectorielle est un espace de dimension 1 et un plan vectoriel est un espace de dimension 2.
MO
FExercice 20.3 Montrer que dans Kn [X], la famille B = (Xk (1 − X)n−k )k∈J0;n K est une base.
Solution 20.3 La base canonique de Kn [X] possède n + 1 vecteurs et card(B) = n + 1, il suffit donc de démontrer que
NE
n n−1
αk X k (1 − X)n−k = 0, en évaluant en 1, il reste αn = 0, donc αk X k (1 − X)n−k = 0, c’est à dire
P P
B est libre : si on a
k=0 k=0
n−1
αk X k (1−X)n−1−k = 0, on peut terminer par récurrence sur n pour montrer que B est libre, la propriété étant évidente
P
k=0
pour n = 0. B est donc une base de Kn [X].
On remarquera au passage la puissance du théorème précédent, car le fait que cette famille B soit
génératrice n’est pas du tout évident à démontrer « à la main ».
Théorème 20.10
Soit B = (e 1 , . . . , e n ) une base de E, l’application :
CoordB : E → Kn
x 7 → CoordB (x)
AIG
est un isomorphisme entre E et Kn .
Preuve : En exercice.
Remarque 20.2 – Ce théorème permet de calculer facilement les coordonnées d’une combinaison linéaire de
vecteurs connaissant les coordonnées de chacun d’eux.
Théorème 20.11
Soient E et F deux K-e.v, soit B = (e 1 , . . . , e n ) une base de E, toute application linéaire de E vers F
est entièrement déterminée par la donnée des images des vecteurs de la base B, plus précisément,
si on se donne y 1 , . . . , y n ∈ F, alors il existe une unique application linéaire f : E → F telle que ∀ i ∈
J1; n K , f (e i ) = y i , de plus :
– f est injective si et seulement si (y 1 , . . . , y n ) est libre dans F.
NT
– f est surjective si et seulement si (y 1 , . . . , y n ) est génératrice de F.
– f est bijective si et seulement si (y 1 , . . . , y n ) est une base de F.
n
Preuve : Soit x ∈ E et (λ1 , . . . , λn ) = CoordB (x), on définit f : E → F en posant f (x) = λk y k . Il est facile de vérifier que
P
k=1
f est linéaire et que c’est la seule qui vérifie f (e k ) = y k pour k ∈ J1; n K.
Les deux équivalences suivantes sont simples à démontrer et la troisième est la conjonction des deux précédentes.
On retient la troisième en disant que f est un isomorphisme de E vers F si et seulement si f transforme une base de E
en une base de F.
Remarque 20.3 – Il en découle que deux applications linéaires de E vers F qui coïncident sur une base de E
sont égales.
MO
Preuve : Comme r < n la famille (y 1 , . . . , y r ) n’est pas génératrice de E, donc il existe au moins un vecteur e k tel que
(y 1 , . . . , y r , e k ) soit libre. Posons A = (y 1 , . . . , y r , e 1 , . . . , e n ) alors A est une famille génératrice de E. La famille A contient des
familles libres et parmi celles-ci il y en a qui contiennent les vecteurs y 1 , . . . , y r , on peut donc considérer une sous-famille
libre de A qui contient ces vecteurs et qui soit de cardinal maximal : C = (y 1 , . . . , y r , e i r +1 , . . . , e i s ), si k ∉ {i r +1 , . . . , i s } alors
la famille (y 1 , . . . , y r , e i r +1 , . . . , e i s , e k ) est liée (maximalité de C), donc e k ∈ Vect [C] ce qui entraîne que C est une famille
génératrice de E, or C est libre donc C est une base de E, ce qui entraîne également que s = n car toutes les bases de E
ont n vecteurs.
ZExemple : Soit E = K3 et B = (i , j , k) la base canonique de K3 , soit u = (1, 1, 1). La famille (u) est libre, on peut
donc compléter cette famille en une base de E avec deux vecteurs de la base canonique. Les vecteurs i et u
sont non colinéaires, donc (u, i ) est libre. On a j ∉ Vect [u, i ] donc (u, i , j ) est libre, c’est donc une base de K3 .
On remarquera que (u, i , k) et (u, j , k) conviennent également.
2) Sous-espaces vectoriels
NE
Théorème 20.13
Si E est de dimension finie, alors tout s.e.v F de E est de dimension finie et dim(F) 6 dim(E). De plus,
si dim(F) = dim(E) alors F = E.
Preuve : Si dim(E) = 0 il n’y a rien à démontrer. On suppose donc dim(E) = n > 1, si F = {0E } alors il n’y a rien à
démontrer, on suppose donc F 6= {0E }, mais alors F contient des familles libres et elles ont toute un cardinal inférieur
ou égal à n, on peut donc considérer une famille C libre de F de cardinal maximal, on a alors ∀ x ∈ F, C ∪ (x) est liée,
donc x ∈ Vect [C ] ce qui prouve que C est une base de F, et le premier point est démontré. Si dim(F) = dim(E), alors
card(C ) = n, donc C est également une base de E, d’où E = F.
Théorème 20.14
Si E est de dimension finie, alors tout s.e.v F de E admet au moins un supplémentaire G dans E.
AIG
Preuve : On écarte les trois cas triviaux : E = {0E }, F = E, F = {0E }. Dans le cas général, soit (y 1 , . . . , y p ) une
£ base de ¤F alors
on peut compléter cette famille en une base de E : (y 1 , . . . , y p , e p+1 , . . . , e n ), on pose alors G = Vect e p+1 , . . . , e n et on
vérifie que G est un supplémentaire de F dans E.
Théorème 20.15
Soient F et G deux s.e.v d’un K-e.v E de dimension finie, les assertions suivantes sont équivalentes :
i) F est G sont supplémentaires.
ii) La somme F + G est directe et dim(F) + dim(G) = dim(E).
iii) E = F + G et dim(F) + dim(G) = dim(E).
Théorème 20.16
Si E est de dimension finie et si F et G sont deux s.e.v de E, alors (formule de Grassmann 1 ) :
dim(F + G) = dim(F) + dim(G) − dim(F ∩ G).
dim(H) = dim(F)−dim(F∩G). On vérifie ensuite que F+G = H⊕G, on en déduit alors que dim(F+G) = dim(H)+dim(G),
ce qui donne la formule.
Théorème 20.17
Si E et F sont deux K-e.v de dimension finie, alors E × F est de dimension finie et dim(E × F) =
dim(E) + dim(F).
Preuve : Soit (e 1 , . . . , e n ) une base de E et (y 1 , . . . , y p ) une base de F, alors on a déjà montré que la famille :
B = ((e 1 , 0F ), . . . , (e n , 0F ), (0E , y 1 ), . . . , (0E , y p )) est un famille génératrice de E × F, on peut vérifier alors que c’est aussi
une famille libre, ce qui donne le résultat.
ZExemple : Si dim(E) = 3, décrire les s.e.v de E et étudier les positions relatives (intersection de deux s.e.v de
E).
1. Hermann Günter GRASSMANN (1809 – 1877) : mathématicien allemand qui a développé les notions fondamentales de l’algèbre
linéaire.
NE
Si dim(E) = n et dim(F) = p, alors L (E, F) est de dimension finie et dim(L (E, F)) = np.
AIG
– f surjective =⇒ dim(E) > dim(F).
– f bijective (isomorphisme) =⇒ dim(E) = dim(F).
– Polynômes d’endomorphismes : si dim(E) = n alors dim(L (E)) = n 2 , donc si u ∈ L (E), alors la famille
2
(i d , u, . . . , u n ) est liée, donc il existe un polynôme P = λk X k non nul de degré 6 n 2 tel que P(u) = 0.
P
P λk k
Si P(0) 6= 0, alors λ0 6= 0 d’où idE = − λ0 u , ou encore :
NE
k >1
" #
X λk k−1
idE = u ◦ − u .
k >1 λ0
λk k−1
Ce qui prouve que u ∈ GL(E) et u −1 = −
P
λ0 u .
k >1
– Polynôme d’interpolation de Lagrange : soient a 0 , . . . , a n n + 1 scalaires distincts, on note f : Kn [X] →
Kn+1 définie par f (P) = (P(a 0 ), . . . , P(a n )). Il est facile de vérifier que f est linéaire et injective, comme
dim(Kn [X]) = n+1, f est un isomorphisme, par conséquent pour (α0 , . . . , αn ) ∈ Kn+1 il existe un unique
polynôme P ∈ Kn [X] tel que ∀ i ∈ J0; n K , P(a i ) = αi . Soit B = (e 0 , . . . , e n ) la base canonique de Kn+1 , on
note Li l’unique polynôme de degré 6 n tel que f (Li ) = e i . On vérifie facilement que :
AIG
n
Y X − ak
Li (X) = .
k=0,k6=i ai − ak
FExercice 20.4 Soit E de dimension finie et soit u ∈ GL(E), soit F un s.e.v de E stable par u, on appelle v la restriction de
u à F, c’est à dire v : F → F définie par v(x) = u(x). Montrer que v ∈ GL(F).
Remarque 20.6 –
– Si B = (e 1 , . . . , e n ) est une base de E alors on sait que ( f (e 1 ), . . . , f (e n )) est une famille génératrice de Im( f )
donc dim(Im( f )) 6 n, c’est à dire :
rg( f ) 6 dim(E).
MO
NE
Preuve : Soit G un supplémentaire de ker( f ) dans E : E = ker( f ) ⊕ G. Il est facile de vérifier que l’application linéaire
v : G → Im( f ) définie par v(x) = f (x) est un isomorphisme, ce qui entraîne que dim(G) = dim(Im( f )) = rg( f ), or
dim(E) = dim(ker( f )) + dim(G), d’où le résultat.
Conséquences : Soit f : E → F linéaire,si E de dimension finie, alors : f est injective ⇐⇒ rg( f ) = dim(E).
ZExemples :
– Soit u : Kn+1 [X] → Kn [X] définie par u(P) = P(X + 1) − P(X). Il est clair que u est linéaire, on vérifie que
ker(u) = K, le théorème du rang nous dit alors que rg(u) = dim(Kn+1 [X]) − dim(ker(u)) = n + 2 − 1 =
n + 1 = dim(Kn [X]), ce qui prouve que u est surjective.
– Soient F et G deux s.e.v de E, on considère l’application ϕ : F × G → E définie par ϕ(x, y) = x + y, on
vérifie que ϕ est linéaire et que ker(ϕ) = {(x, −x) / x ∈ F ∩ G}. On voit que ker(ϕ) est isomorphe à F ∩ G
et que Im(ϕ) = F + G, le théorème du rang nous dit alors que dim(F × G) = dim(F ∩ G) + dim(F + G), d’où
dim(F + G) = dim(F) + dim(G) − dim(F ∩ G), on retrouve ainsi la formule de Grassmann.
AIG
u(i ) = (1, 2, −1, 0)
FExercice 20.5 Soit B = (i , j , k) une base de K3 , on considère u : K3 → K4 définie par u( j ) = (−1, 0, 1, −2) . Calcu-
u(k) = (1, 4, −1, −2)
ler le rang de u :
½
b = −c £ ¤
Solution 20.5 x = ai + b j + ck ∈ ker(u) ⇐⇒ , on en déduit que ker(u) = Vect 2i + j − k , d’où rg(u) =
a = −2c
dim(K3 )−1 = 2, donc Im(u) est un plan vectoriel, comme u(i ) et u( j ) sont non colinéaires, on a Im(u) = Vect u(i ), u( j ) .
£ ¤
Preuve : Soit h : Im( f ) → G définie par h(x) = g (x), alors h est linéaire et Im(h) = Im(g ◦ f ) ⊂ Im(g ), on a donc
rg(g ◦ f ) = rg(h) 6 dim(Im( f )) d’après le théorème du rang, de plus l’inclusion ci-dessus prouve que rg(h) 6 rg(g ), d’où
le résultat.
Si f est surjective, alors Im( f ) = F et donc h = g , d’où rg(g ◦ f ) = rg(g ).
Si g est injective, alors h est injective, donc rg(h) = dim(Im( f )) = rg( f ).
NT
FExercice 20.6 Soient E, F deux K-e.v de dimension finie et soit u, v ∈ L (E, F), montrer que :
|rg(u) − rg(v)| 6 rg(u + v) 6 rg(u) + rg(v).
Définition 20.6
Soit (x 1 , . . . , x n ) une famille de vecteurs d’un K-.v E. On appelle rang de la famille (x 1 , . . . , x n ) la
dimension du s.e.v engendré par cette famille.
Notation : rg(x 1 , . . . , x n ) = dim(Vect [x 1 , . . . , x n ]).
Remarque 20.7 –
– La famille (x 1 , . . . , x n ) est génératrice de F = Vect [x 1 , . . . , x n ], donc son rang est inférieur ou égal à n. De
MO
plus on sait que l’on peut extraire de cette famille une base de F en prenant une sous-famille libre de
cardinal maximal, ce cardinal maximal est donc le rang de la famille.
– La famille (x 1 , . . . , x n ) est libre si et seulement si c’est une base de F = Vect [x 1 , . . . , x n ] ce qui équivaut à
dim(F) = n, ce qui équivaut encore à : le rang de la famille est égal à n, donc :
(x 1 , . . . , x n ) libre ⇐⇒ rg(x 1 , . . . , x n ) = n.
– Soit B = (e 1 , . . . , e n ) une base de E et soit f ∈ L (E, F) alors :
£ ¤
rg( f ) = dim(Im( f )) = dim(Vect f (e 1 ), . . . , f (e n ) ) = rg( f (e 1 ), . . . , f (e n )).
ZExemples :
– Dans K3 calculons le rang de la famille (i , j , k) avec i = (1, 1, 1), j = (−1, 2, 5) et k = (3, 0, −3). La famille
(i ) est libre, j est non colinéaire à i donc (i , j ) est libre, mais k = 2i − j donc la famille (i , j , k) est liée,
£ ¤ £ ¤
par conséquent (i , j ) est libre maximale d’où rg(i , j , k) = 2 et Vect i , j , k = Vect i , j .
NE
Soit E un K-e.v de dimension n et soit B = (e 1 , . . . , e n ) une base de E, on considère une famille de vecteurs
de E : (x 1 , . . . , x p ) dont on cherche le rang. On a les propriétés suivantes :
– Si x p = 0E , alors rg(x 1 , . . . , x p ) = rg(x 1 , . . . , x p−1 ). Autrement dit, si l’un des vecteurs de la famille est nul,
on peut le retirer de la famille, cela ne change pas le rang (en fait cela ne change pas le s.e.v engendré).
– Si α ∈ K∗ , alors rg(x 1 , . . . , x p ) = rg(αx 1 , x 2 , . . . , x p ), autrement dit, multiplier l’un des vecteurs par un
scalaire non nul ne change pas le rang.
p
– Si λ2 , . . . , λp ∈ K, alors rg(x 1 , . . . , x p ) = rg(x 1 + λk x k , x 2 , . . . , x p ). Autrement dit, ajouter à l’un des
P
k=2
vecteurs une combinaison linéaire des autres ne change pas le rang.
– Si on a le système suivant (dans le cas où p 6 n) :
x 1 = λ1,1 e 1 +λ1,2 e 2 + ··· · · · +λ1,n e n
AIG
λ2,2 e 2 +
x2 =
··· · · · +λ2,n e n
. . ,
.. ..
λp,p e p + · · · +λp,n e n
x
p =
alors si les scalaires λ1,1 , . . . , λp,p (pivots de Gauss) sont tous non nuls, on a rg(x 1 , . . . , x p ) = p, c’est à
dire la famille (x 1 , . . . , x p ) est libre.
Preuve : Laissée en exercice.
La méthode est la suivante, on exprime les vecteurs x 1 , . . . , x p dans une base (e 1 , . . . , e n ), puis on effectue
sur ce système des transformations élémentaires de manière à le rendre triangulaire (comme le système
ci-dessus). Les transformations élémentaires de la méthode de Gauss sont :
– Échanger deux lignes : Li ↔ L j (elle permet de mettre le pivot dans la bonne ligne (ligne k pour le
k-ième pivot).
– Échanger deux colonnes : Ci ↔ C j (elle permet de mettre le pivot dans la bonne colonne (colonne k
pour le k-ième pivot).
NT
– Multiplier une ligne par un scalaire non nul : Li ← αLi .
– Ajouter à une ligne un multiple d’une autre ligne : Li ← Li + λL j (elle permet les éliminations à partir
de la ligne du pivot dans les lignes suivantes).
D’après les propriétés précédentes, après chaque opération élémentaire, on obtient une nouvelle
famille qui a le même rang que la précédente.
ZExemple : Soit x 1 = (2, 3, −3, 4, 2), x 2 = (3, 6, −2, 5, 9), x 3 = (7, 18, −2, 7, 7) et x 4 = (2, 4, −2, 3, 1). On prend B =
MO
NE
x1 : 2 3 −3 4 2
Système initial : x2 : 3 6 −2 5 9
x 3 : 7 18 −2 7 7
x4 : 2 4 −2 3 1
e1 e2 e3 e4 e5
x1 : 2 3 −3 4 2
Étape 1 : 2x 2 − 3x 1 = v 2 : 3 5 −2 12 L2 ← 2L2 − 3L1
2x 3 − 7x 1 = v 3 : 15 17 −14 L3 ← 2L3 − 7L1
x4 − x1 = v 4 : 1 1 −1 −1 L4 ← L4 − L1
e1 e2 e3 e4 e5
x : 2 3 −3 4 2
AIG
1
Étape 2 (L2 ↔ L4 ) : v4 : 1 1 −1 −1
v 3 − 15v 4 : 2 1 15 L3 ← L3 − 15L2
v 2 − 3v 4 : 2 1 15 L4 ← L4 − 3L2
e1 e2 e3 e4 e5
x : 2 3 −3 4 2
1
Étape 3 : v4 : 1 1 −1 −1
v − 15v : 2 1 15
3 4
v 2 − v 3 + 12v 4 : 0 0 L4 ← L4 − L3
IV COMPLÉMENTS
NT
1) Hyperplans en dimension finie
Théorème 20.23
Soit E un espace de dimension n et H un s.e.v. de E, soit B = (e 1 , . . . , e n ) une base de E. Les assertions
suivantes sont équivalentes :
a) H est un hyperplan de E.
b) Il existe des scalaires (a 1 , . . . , a n ) non tous nuls tels que :
x1
..
H = {x . ∈ E / a 1 x 1 + · · · + a n x n = 0} (on a une équation cartésienne de H).
MO
xn
c) dim(H) = n − 1.
Preuve : Montrons i =⇒ i i : H est le noyau d’un forme linéaire f sur E, non nulle. Posons f (e i ) = a i , alors au moins un
n
P
des a i est non nul. Soit x de coordonnées (x 1 , . . . , x n ) dans la base B, alors f (x) = a 1 f (e 1 ) = · · · + a n f (e n ) = a i x i . Le
i =1
résultat en découle.
Montrons que i i =⇒ i i i : supposons a 1 6= 0, quitte à tout diviser par a 1 on peut suppose a 1 = 1, l’équation de
H équivaut alors à x 1 = −a 2 x 2 − · · · − a n x n , on en déduit que x ∈ H ⇐⇒ x = x 2 [−a 2 e 1 + e 2 ] + · · · x n [−a n e 1 + e n ], par
conséquent H = Vect [−a 2 e 1 + e 2 ; . . . ; −a n e 1 + e n ], on a une famille génératrice de H, on vérifie qu’elle est libre, c’est
donc une base de H et donc dim(H) = n − 1.
Montrons que i i i =⇒ i : soit (h 1 , . . . , h n−1 ) une base de H, c’est une famille libre, on peut la complèter en une base
de E : (h 1 , . . . , h n−1 , h n ), soit f la forme linéaire sur E définie par f (h i ) = 0 si 1 6 i 6 n − 1 et f (h n ) = 1. Alors f est non
nulle, et on vérifie que ker( f ) = H, donc H est un hyperplan.
NE
Preuve : Si ( f 1 , f 2 ) est liée, il existe un scalaire a tel que f 1 = a f 2 (car f 2 est non nulle), comme f 1 est non nulle, on a
a 6= 0, par conséquent ∀x ∈ E, f 1 (x) = 0 ⇐⇒ f 2 (x) = 0, on en déduit que H1 = H2 .
Si H1 = H2 , soit (h 1 , . . . , h n−1 ) une base de H1 , que l’on complète en une base de E : (h 1 , . . . , h n−1 , h n ), h n étant ni
dans H1 ni dans H2 , on a f 1 (h n ) et f 2 (h n ) non nuls, il existe donc un scalaire a tel que f 1 (h n ) = a f 2 (h n ), on vérifie alors
que pour i dans J1; n K, on a f 1 (h i ) = a f 2 (h i ) et donc f 1 = a f 2 , la famille ( f 1 , f 2 ) est liée.
FExercice 20.7
1/ Montrer que les deux équations a 1 x 1 + · · · + a n x n = 0 et b 1 x 1 + · · · + b n x n = 0 dans une base B sont équivalentes
si et seulement si (a 1 , . . . , a n ) et (b 1 , . . . , b n ) sont colinéaires dans Kn .
2/ Soient H1 et H2 deux hyperplans distincts, montrer que dim(H1 ∩ H2 ) = n − 2 si n = dim(E).
Solution 20.7
AIG
1/ C’est une application directe du théorème ci-dessus.
2/ Il existe au moins un vecteur de H2 qui n’est pas dans H1 , donc H1 + H2 contient une base de E, par conséquent
H1 + H2 = E, en appliquant la formule de Grassmann on obtient le résultat.
Théorème 20.25
• Si H1 , . . . , Hp sont des hyperplans de E, alors dim(H1 ∩ · · · ∩ Hp ) > n − p.
• Tout s.e.v. de E de dimension n − p est l’intersection de p hyperplans de E.
Preuve :
• On écrit Hi = ker( f i ) où les f i sont des formes linéaires non nulles sur E. L’application E → Kp définie par g (x) =
( f 1 (x), . . . , f p (x)) est linéaire, son noyau est l’intersection H1 ∩· · ·∩Hp et son rang est inférieure ou égale à p. Le théorème
du rang donne le résultat.
• Soit (e 1 , . . . , e n−p ) une base de ce s.e.v., on complète en une base de E : B = (e 1 , . . . , e n ), soit f i la forme linéaire définie
par f i (e j ) = δi j pour i ∈ Jn − p + 1; n K. On vérifie que ker(¤ f i ) est l’ensemble des vecteurs sont la coordonnée dans la
NT
£
base B sur e i est nulle, on en déduit que Vect e 1 , . . . , e n−p = ker( f n−p+1 ) ∩ · · · ∩ ker( f n ).
2) Sous-espaces affines
Soit →
−
u ∈ E, la translation de vecteur →
−
u est l’application 2 t→
−
→
− →
− → −
u ( v ) = u + v . L’ensemble
u : E → E définie par t→
−
de ces applications est noté TE et il est facile de vérifier que (TE , ◦) est un groupe abélien, c’est un sous -
groupe du groupe des permutations de E.
Si →
−v,−→ sont deux vecteurs de E, alors il existe un unique vecteur →
w −
u ∈ E tel que t→ →
− −→
u ( v ) = w . Cette
−
propriété très simple, suggère un autre point de vue pour les éléments de E : la notion de points.
La propriété précédente peut alors s’énoncer sous la forme suivante : si A et B sont deux points de E, alors
−−→
il existe un unique vecteur → −
u tel que B = t→ →
−
u (A). Ce vecteur u est noté : AB , on remarquera que :
−
−−→ −−→
– AB = B − A, et A + AB = B,
MO
−−→
– AB = 0 ⇐⇒ A = B,
−−→ −−→
– BA = −AB ,
−−→ −−→ −−→
– AC = AB + BC .
→
−
2. non linéaire si →
−
u 6= 0 .
NE
−−→
AB
→
−
0
AIG
Définition 20.7
Un sous - espace affine de E est l’image d’un s.e.v. de E par une translation. Soit V une partie de E, V
est un s.e.a. de E ssi il existe un s.e.v V et un vecteur →
Propriétés :
−
u tel que V = t→
u < V >, si c’est le cas, V est appelé
−
direction du s.e.a. V (ce que l’on écrira : (V , V)), et on pose dim(V ) = dim(V). On remarquera qu’un
– Si V est un s.e.a. de direction V, alors V est unique (mais pas le vecteur de la translation), de plus V est
un s.e.v. si et seulement si V contient le vecteur nul.
−−→
– Si (V ,V) est un s.e.a. alors ∀ A ∈ V , V = {A + → −
u /→ −
u ∈ V}, et V = {AB / B ∈ V }, on remarquera que
−−→
∀ B ∈ E, B ∈ V ⇐⇒ AB ∈ V.
NT
– Si (V ,V) et (V 0 ,V 0 ) sont deux s.e.a. de E, et si V ∩ V 0 n’est pas vide, alors V ∩ V 0 est un s.e.a de direction
V ∩ V0.
−−→
– Soient (V ,V) et (V 0 ,V 0 ) sont deux s.e.a. de E, soient A ∈ V et A0 ∈ V 0 , alors V ∩ V 0 6= ; ⇐⇒ AA0 ∈ V + V 0 .
On remarquera que la condition est nécessairement remplie lorsque E = V + V 0 .
FExercice 20.8 Étudier les s.e.a. de E lorsque dim(E) = 1, 2, 3.
Définition 20.8
Un repère cartésien R = (O, −e→ −→
1 , . . . , e n ) de E, est la donnée d’un point O de E (appelé origine du
repère), et d’une base B = (−
e→ −→
1 , . . . , e n ) de E. Pour tout point M de E, on appelle coordonnées de M
−−→
dans le repère R, les coordonnées du vecteur OM dans la base B. On remarquera qu’il s’agit des
coordonnées de M − O dans la base B.
MO
3) Équations linéaires
Définition 20.9
Une équation linéaire est une équation du type : u(x) = b avec u ∈ L (E, F), b ∈ F et x ∈ E (inconnue).
NE
L’équation u(x) = 0F est appelée équation homogène associée.
ZExemples :
2x − y = 1
– Tout système linéaire est une équation linéaire, par exemple, le système x + 2y = 3 , peut
3x + 5y = −1
se mettre sous la forme u(X) = b avec u : R2 → R3 définie par u(x, y) = (2x − y, x + 2y, 3x + 5y), avec
b = (1, 3, −1) ∈ R3 et X = (x, y) ∈ R2 , il est facile de vérifier que u ∈ L (R2 , R3 ).
– Une équation différentielle linéaire est une équation linéaire, par exemple l’équation différentielle :
y 0 + y = 1 peut se mettre sous la forme u(y) = b avec u : C 1 (R, R) → C 0 (R, R) définie par u(y) = y 0 + y (u
est linéaire), et b ∈ C 0 (R, R) la fonction constante 1.
AIG
Théorème 20.26 (structure des solutions d’une équation linéaire)
Soit u ∈ L (E, F) et soit b ∈ F, l’équation linéaire u(x) = b avec x ∈ E a des solutions si et seulement si
b ∈ Im(u). Si c’est le cas, et si x 0 ∈ E désigne une solution particulière (i.e. u(x 0 ) = b), alors l’ensemble
de toutes les solutions est S = {y + x 0 / y ∈ ker(u)} = x 0 + ker(u). C’est donc un sous-espace affine de
direction ker(u).
Preuve : Il est clair qu’il y a des solutions si et seulement si b ∈ Im(u). Si on a u(x 0 ) = b, alors l’équation u(x) = b
équivaut à u(x) = u(x 0 ), ou encore à u(x − x 0 ) = 0F (u est linéaire), ce qui équivaut encore à ∃ y ∈ ker(u), x = y + x 0 .
ZExemples :
– Le système linéaire équivaut à (méthode de Gauss 3 ) :
−y + 2x = 1 −y + 2x = 1
NT
5x = 5 (L2 ← L2 + 2L1 ) ⇐⇒ x = 1
13x = 4 (L3 ← L3 + 5L1 ) 0 = −9 (L3 ← L3 − 13L2 )
La dernière équation montre que ce système n’a pas de solution (i.e. b ∉ Im(u)).
– Pour l’équation différentielle, il y a une solution particulière : y 0 : t 7→ 1. L’équation homogène associée
est y 0 + y = 0 dont les solutions sont les fonctions y = λφ où φ : t 7→ e −t . L’ensemble des solutions est
donc S = {1 + λφ / λ ∈ R}.
MO
3. Carl Friedrich (1777 – 1855) : mathématicien allemand de génie, sans doute l’un des plus grands de tous les temps.
Séries numériques
AIG
Sommaire
I Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
3) Séries géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
II Séries à termes positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
1) Critère de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
2) Théorèmes de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
3) Comparaison avec une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
III Séries à termes quelconques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
1) Séries absolument convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
2) Séries alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
3) Séries obtenues par une formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4) Développement décimal d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
NT
I GÉNÉRALITÉS
1) Définitions
Définition 21.1
Soit (u n )n∈N une suite d’éléments de K. On appelle série de terme général u n la suite (S n )n∈N définie
n
MO
P
par S n = u k . Le nombre S n est appelé somme partielle de rang n (d’ordre n) de la série. La série
k=0 P
de terme général u n est notée un .
n∈N
ZExemples :
q n : série géométrique de raison q.
P
–
n >1
zn
avec z ∈ K : série exponentielle.
P
– n!
n∈N
1
où α ∈ R : séries de Riemann.
P
– nα
n >1
NE
(S n )n∈N est convergente. Si c’est le cas, la limite de la suite des sommes partielles est appelée somme
+∞
P +∞
P n
P
de la série et notée u n . On a donc u n = lim S n = lim u k . La différence entre la somme
n=0 n=0 n→+∞ n→+∞ k=0
+∞
P n
P +∞
P
de la série et la somme partielle S n est appelée reste de rang n, noté Rn = un − uk = uk .
n=0 k=0 k=n+1
• Une série qui n’est pas convergente, est dite divergente.
• Déterminer la nature d’une série, c’est déterminer si elle est convergente ou divergente.
Attention !
P
On prendra garde à ne pas confondre la notation u n qui désigne la série (c’est à dire la suite des sommes
n∈N
+∞
AIG
P
partielles), avec la notation u n qui désigne la somme de la série, si celle-ci converge (c’est la limite des sommes
n=0
partielles lorsque celle-ci existe dans K).
ZExemples :
n
P n(n+1) P
– La série de terme général u n = n : S n = k= 2 donc lim S n = +∞ et la série n∈N n est divergente.
k=0
n 1−( 13 )n+1
– La série de terme général u n = (− 13 )n : S n = (− 13 )k = , or | − 13 | < 1 donc lim S n = 34 . La série
P
1+ 31
k=0
+∞
1 n
(− 13 )n = 34 .
P P
n∈N (− 3 ) est convergente et sa somme est
n=0
FExercice 21.1 Étudier la nature de la série de terme général u n = (−1)n .
Solution 21.1 On vérifie par récurrence que S 2n = 1 et S 2n+1 = 0, la suite (S n ) est donc divergente et par conséquent la
série de terme général u n aussi.
NT
2) Premières propriétés
n
P
Preuve : Posons u 0 = s 0 et pour n > 0, u n = s n − s n−1 , on a alors u k = s 0 + (s 1 − s 0 ) + · · · + (s n − s n−1 ) = s n .
k=0
Remarque 21.1 – L’ensemble des séries de K n’est donc autre que F (N, K). Pour les opérations usuelles sur les
suites, on sait que c’est un K-e.v. Soient v n deux séries, λ ∈ K. Il est facile de voir que la somme
P P
u n et
MO
n∈N n∈N
v n est la série de terme général u n + v n , et que la série λ
P P P
des deux séries un + u n est la série de terme
n∈N n∈N n∈N
général λu n .
FExercice 21.2 Montrer ¶ l’application de F (N, K) dans lui-même qui a chaque suite (u n )n∈N associe la suite des
que
n
µ
P
sommes partielles uk est un automorphisme.
k=0 n∈N
Théorème 21.2
L’ensemble des séries convergentes de K est un K-espace vectoriel. De plus l’application qui à chaque
P P
série convergente associe sa somme, est (une forme) linéaire. Plus précisément, si u n et vn
n∈N n∈N
sont deux séries convergentes, alors ∀α, β ∈ K, la série αu n + βv n est convergente et :
P
n∈N
+∞ +∞ +∞
αu n + βv n = α un + β
P P P
vn .
n=0 n=0 n=0
P
Preuve : Soit (Un ) la suite des sommes partielles de la série u n et (Vn ) la suite des sommes partielles de la série
n∈N
v n . Alors (αUn + βVn ) est la suite des sommes partielles de la série αu n + βv n . Le reste découle des propriétés
P P
n∈N n∈N
NE
des suites convergentes.
Attention !
• La somme de deux séries divergentes peut très bien donner une série convergente (prendre deux séries divergentes
opposées par exemple).
• La somme d’une série divergente et d’une série convergente est forcément une série divergente (raisonner par
l’absurde).
AIG
P P +∞
P +∞
P +∞
P
Re(u n ) et Im(v n ) sont convergentes, et auquel cas on a : un = Re(u n ) + i Im(u n ).
n∈N n∈N n=0 n=0 n=0
P
Preuve : Soit (An ) la suite des sommes partielles de la série Re(u n ) et (Bn ) la suite des sommes partielles de la série
P n∈N P
Im(v n ). Alors (Un + i Vn ) est la suite des sommes partielles de la série u n . Le reste découle des propriétés des
n∈N n∈N
suites complexes convergentes.
Preuve : Soit (S n ) la suite des sommes partielles, alors la suite (S n ) converge vers S ∞ la somme de la série, d’où
lim Un − Un−1 = S ∞ − S ∞ = 0, c’est à dire lim u n = 0.
NT
n p
Pour la réciproque prenons u n = p1n , alors S n = p1 > n p1 = n, on en déduit que S n → +∞. La série est
P
nk
k=1
divergente bien que le terme général u n tende vers 0.
Définition 21.3
P
On dit que la série u n diverge grossièrement lorsque le terme général ne tend pas vers 0.
n∈N
ZExemples :
(−1)n est grossièrement divergente.
P
– La série
n∈N
2n
P 1 P 1
– La série (série harmonique) est divergente (mais pas grossièrement), en effet S 2n −S n = >
MO
n k
n∈N k=n+1
n
2n = 12 . Si la série était convergente alors la suite (S n ) convergerait vers la somme S ∞ , mais alors
S 2n − S n → S ∞ − S ∞ = 0, on aurait donc 0 > 12 ce qui est absurde. La série harmonique est donc
divergente.
n
P 1
Rappel : dans le TD sur les suites, nous avons établi que k ∼ ln(n).
k=1
3) Séries géométriques
Preuve : Si |z| > 1 alors |z n | > 1 et donc la suite (z n ) ne peut pas tendre vers 0, la série est donc grossièrement divergente
dans ce cas.
n n+1
z k = 1−z n+1 1
P
Si |z| < 1, alors S n = 1−z , or z → 0 car |z| < 1, il en découle que S n → 1−z .
NE
k=0
ZExemples :
+∞
(− 13 )n est convergente et 1
= 43 .
P P
– La série = 1+ 13
n∈N n=0
(−1)n est grossièrement divergente.
P
– La série
n∈N
Attention !
Pour les séries géométriques convergentes on prendra garde à l’indice du premier terme avant d’appliquer la
formule !
AIG
II SÉRIES À TERMES POSITIFS
Dans ce paragraphe toutes les séries sont à termes réels positifs. Pour ces séries, il faut remarquer que
les sommes partielles forment une suite croissante. La définition peut s’étendre aux séries dont le terme
général est réel positif à partir d’un certain rang seulement.
1) Critère de convergence
Théorème 21.6
Une série à termes positifs est convergente si et seulement si la suite des sommes partielles est majorée
dans R.
Preuve : La série converge si et seulement si la suite (S n ) converge, or cette suite est croissante, on sait donc qu’elle
NT
converge si et seulement si elle est majorée. La résultat en découle.
Remarque 21.2 –
• Lorsque la suite (S n ) des sommes partielles n’est pas majorée, on a S n → +∞ puisque cette suite est croissante.
• Le critère s’applique aux séries à termes positifs à partir d’un certain rang.
P 1
ZExemple : La série n2
1
est convergente. En effet, pour n > 2 on a k12 6 k(k−1) 1
= k−1 − k1 , on en déduit que
n∈N
n
1 1
= 2 − n1 , et par conséquent S n 6 2.
P
Sn 6 1 + k−1 − k
k=2
Attention !
(−1)n est divergente alors
P
Le critère est en défaut lorsque la série n’est pas à termes positifs. Par exemple la série
n∈N
MO
2) Théorèmes de comparaison
Théorème 21.7
P P
Soient u n et v n deux séries telles qu’à partir d’un certain rang N on ait 0 6 u n 6 v n , alors on a :
n∈N n∈N
P P +∞
P +∞
P
• Si la v n converge alors la série u n converge et on a un 6 vn .
n∈N P n∈N P n=N n=N
• Si la série u n diverge alors la série v n diverge.
n∈N n∈N
n
P n
P
Preuve : D’après les hypothèses, on a uk 6 vk .
k=N k=N
P n
P n
P
• Si la série v n converge, alors ( vk ) converge et donc ( v k ) converge, cette suite est donc majorée par un
NE
n∈N k=0 k=N
P
certain réel M, on en déduit que la somme partielle de la série u n est majorée, comme elle est à termes positifs à
n∈N
partir d’un certain rang, elle converge et l’inégalité sur les sommes en découle.
P n
P n
P
• Si la série u n diverge, alors ( u k ) est croissante divergente, donc de limite +∞, on en déduit que ( v k ) tend
n∈N k=N P k=0
vers +∞, cette suite n’est donc pas majorée, donc la série v n est divergente puisqu’elle est à terme positif à partir
n∈N
d’un certain rang.
ZExemples :
– La série de terme général n13 est convergente car n13 6 n12 et celle-ci est une série est convergente.
– Si α < 1, alors la série de terme général n1α est divergente car n1 6 n1α et on sait que la série harmonique
est divergente.
AIG
Théorème 21.8 (utilisation des relations de comparaison)
Soient (u n ) et (v n ) deux suites à termes positifs (à partir d’un certain rang).
P P
• Si u n = O(v n ) et si v n converge, alors la série u n converge.
n∈N
P Pn∈N
• Si u n = O(v n ) et si u n diverge, alors la série v n diverge.
n∈N P P n∈N
• Si u n ∼ v n alors les deux séries u n et v n sont de même nature.
n∈N n∈N
Preuve : Si u n = O(v n ), alors il existe un réel M > 0 tel qu’à partir d’un certain rang on ait u n 6 Mv n , les deux premiers
points en découlent compte tenu du théorème précédent.
Si u n ∼ v n alors on a à la fois u n = O(v n ) et v n = O(u n ). Le résultat en découle.
Remarque 21.3 – Les deux premiers points du théorème s’appliquent aussi lorsque u n = o(v n ).
ZExemples :
NT
– Soit u n = sin( n1 ) alors u n ∼ n1 , on en déduit que la série de terme général u n est à termes positifs pour n
assez grand et qu’elle est divergente, car la série harmonique diverge.
– Soit u n = 1 − cos( n1 ), alors u n ∼ 2n1 2 , on en déduit que la série de terme général u n est à termes positifs
pour n assez grand et qu’elle est convergente, car la série de terme général n12 converge.
Théorème 21.9
MO
Preuve : Supposons f croissante, alors sur l’intervalle [k; k + 1] on a f (k) 6 f (t ) 6 f (k + 1), on en déduit en intégrant
R k+1
sur cet intervalle que f (k) 6 k f (t ) d t 6 f (k + 1), on somme alors ces inégalités pour k allant de 0 à n, ce qui donne
n
P R n+1 n+1
P
f (k) 6 0 f (t ) d t 6 f (k), ce qui donne le premier encadrement. L’autre cas se traite de la même façon.
k=0 k=1
1 1
ZExemple : On considère la série de terme général u n = n ln(n) pour n > 2. Soit f (t ) = t ln(t ) sur [2; +∞[, cette
R n+1 n Rn
P 1
fonction est continue, positive et décroissante, on en déduit que 2 f (t ) d t 6 k ln(k) ) 6 f (2) + 2 f (t ) d t ,
Rn k=2
or 2 f (t ) d t = [ln(ln(t ))]n2 = ln(ln(n)) − ln(ln(2) → +∞, la série est donc divergente.
NE
Preuve : Si α 6 0 alors le terme général ne tend pas vers 0, la série est donc grossièrement divergente.
Supposons α > 0 et soit f (t ) = t1α , c’est une fonction continue, positive et décroissante sur [1; +∞[, on en déduit que
(
R n+1 n
1
Rn R n dt ln(n) si α = 1 Rn
. Si α 6 1 alors 1 f (t ) d t → +∞ et
P
que 1 f (t ) d t 6 k α 6 f (1) + 1 f (t ) d t . On sait que 1 t α = n 1−α −1
k=1 1−α R sinon
n
donc les sommes partielles tendent vers +∞. Par contre, si α > 1 alors ( 1 f (t )d t ) est convergente, donc majorée, et
donc la série (qui est à termes positifs) converge.
ZExemples : p ³ p ´
, on sait que n 2 = o e n , on en déduit que n 2 u n = o(1) et donc u n = o n12 , or la série
– Soit u n = e − n
¡ ¢
P −pn
de Riemann de terme général n12 converge, donc la série e est convergente.
n∈N
AIG
n α−1/2
– Soit u n = p 1
n ln(n)
, n α un = ln(n) → +∞ si on prend α > 1
2 (théorème des croissances comparées), donc
1 1
pour n assez grand, on a n α 6 u n , en prenant α ∈] 2 ; 1[ on peut en déduire que série de terme général
u n est divergente.
2
– Soit u n = lnn 3/2
(n)
, n α u n = n α−3/2 ln(n)2 → 0 si on prend α < 32 (théorème des croissances comparées),
donc pour n assez grand, on a u n 6 n1α , en prenant α ∈]1; 32 [ on peut en déduire que série de terme
général u n est convergente.
P
Remarque 21.4 – La série |u n | est évidemment à termes positifs.
n∈N
in
ZExemple : La série de terme général u n = en 3 est absolument convergente car |u n | = n13 : série de Riemann
convergente.
Théorème 21.11
¯ ¯
¯ +∞ ¯ +∞
MO
P P P
Si la série u n est absolument convergente, alors est elle convergente et on a ¯
¯ u n ¯¯ 6 |u n |. La
n∈N n=0 n=0
réciproque est fausse.
Preuve : Posons u n = a n + i b n avec a n et b n réels. Posons a n+ = max(0, a n ) et a n− = max(0, −a n ) (idem pour b n ), alors
on a 0 6 a n+ , 0 6 a n− , a n+ + a n− = |a n | et a n+ − a n− = a n . On en déduit que 0 6 a n+ 6 |a n | 6 |u n | et 0 6 a n− 6 |a n | 6 |u n |.
On en déduit que les séries à termes positifs a n+ et a n− sont convergentes, et par conséquent la série de terme général
a n+ − a n− = a n est convergente. De même on montre que la série de terme général b n converge et donc la série de terme
général a n + i b n = u n est convergente. ¯ ¯
¯P n ¯ Pn
L’inégalité triangulaire donne ¯¯ u k ¯¯ 6 |u k |, par passage à la limite, on obtient l’inégalité annoncée car on sait
k=0 k=0
que les deux sommes ont une limite.
Attention !
n
La réciproque du théorème ci-dessus est fausse, par exemple on montrera que la série de terme général u n = (−1) n
NE
est convergente, mais on sait que la série de terme général |u n | = n1 est divergente. Une telle série est dite semi-
convergente.
2) Séries alternées
Définition 21.5
Une série alternée est une série dont le terme général est de la forme (−1)n a n où (a n ) est une suite
réelle positive.
AIG
(−1)n a n telle que la suite (a n ) est décroissante de limite nulle, est convergente.
P
Une série alternée
n∈N
De plus on a la majoration du reste d’ordre n : |Rn | 6 a n+1 .
n
(−1)k a k les sommes partielles, posons u n = S 2n et v n = S 2n+1 , alors u n+1 − u n = S 2n+2 − S 2n =
P
Preuve : Soit S n =
k=0
a 2n+2 − a 2n+1 6 0 car la suite (a k ) est décroissante, on en déduit que la suite u est décroissante. De même, v n+1 − v n =
S 2n+3 − S 2n+1 = a 2n+2 − a 2n+3 > 0, la suite v est donc croissante. Or u n − v n = a 2n+1 → 0, les deux suites sont donc
adjacentes, elles convergent vers une même limite `, on a donc S 2n → ` et S 2n+1 → `, on en déduit que S n → `, la série
est donc bien convergente de somme `.
De plus on a l’encadrement v n 6 ` 6 u n , ce qui veut dire que ` est compris entre S n et S n+1 pour tout n, par
conséquent : |Rn | = |` − S n | 6 |S n+1 − S n | = a n+1 .
Remarque 21.5 – Lorsque le critère s’applique, la majoration du reste donne un renseignement sur la vitesse
de convergence. Cette majoration est également utile lorsqu’on veut faire un calcul approché de la somme `
avec une précision donnée.
NT
n
(−1)n (−1)k 1
ZExemple : La série de terme général
P
n est convergente, soit S sa somme, on a |S − k | 6 n+1 , à
k=1
priori la convergence est lente. Nous verrons en exercice que S = − ln(2). Cette série n’est pas absolument
convergente, mais seulement semi-convergente.
FExercice 21.3 utilisation d’un développement asymptotique)
n
1/ Nature de la série de terme général u n = sin( (−1)
p ).
n
n
2/ Même chose avec u n = ln(1 + (−1)
p ).
n
Solution 21.3
n n n
³ ´
1/ On a sin( (−1)
p )=
n
(−1)
p
n
− (−1)
6n 3/2
+o 1
n 3/2
, on reconnaît trois séries convergentes : la première par le critère spécial
des séries alternées, la deuxième est absolument convergente car en valeur absolue c’est une série de Riemann,
MO
P
et la troisième par comparaison avec une série de Riemann également. On en déduit que la série u n converge.
n∈N
n n n
³ ´
2/ On a pour n > 1, ln(1 + (−1)
p ) = (−1)
n
p
n
1
− 2n − (−1)
3n 3/2
1
+ o n 3/2 , on reconnaît trois séries convergentes : la première
par le critère spécial des séries alternées, la troisième est absolument convergente car en valeur absolue c’est
une série de Riemann, la quatrième par comparaison avec une série de Riemann également, mais la deuxième
P
est une série de Riemann divergente. On en déduit que la série u n diverge.
n∈N
Attention !
n n
Sur le deuxième exemple on a ln(1 + (−1)
p ) ∼ (−1)
n
p , la série de gauche est divergente alors que la série de droite
n
est convergente. Le théorème de comparaison est donc en défaut lorsque les séries ne sont pas à termes de signe
constant.
NE
n f (k) (a) R x (x−t )n (n+1)
P k
∀ a, x ∈ I, f (x) = k! (x − a) + a n! f (t ) d t .
k=0
Preuve : Celle-ci est laissée en exercice, il s’agit d’une simple récurrence sur n. On en déduit le théorème suivant.
Applications :
– La série exponentielle : soit z ∈ C, pour t ∈ [0; 1] on pose f (t ) = e t z , cette fonction est de classe C ∞ sur [0; 1],
AIG
pour n ∈ N, on a f (n+1) (t ) = z n+1 e t z , en posant z = a + i b, on a | f (n+1) (t )| 6 |z|n+1 e t a 6 |z|n+1 M où M désigne le
maximum de la fonction e t a sur [0; 1], appliquons l’inégalité de Taylor-Lagrange entre 0 et 1 à l’ordre n :
¯ ¯
k¯
n
¯ z X z ¯
¯ |z|n+1
¯e − ¯6M .
k=0 k! (n + 1)!
¯ ¯
On voit que le majorant tend vers 0 lorsque n → +∞, car |z|n = o(n!), par conséquent :
n zk X zn
+∞
∀ z ∈ C, e z = lim ou encore ∀z ∈ C, e z =
X
.
k=0 k! n=0 n!
n→+∞
– Développement de sin en série : avec la fonction sin, toutes ses dérivées sont majorées par 1, on a donc pour
x ∈ R et n ∈ N, en appliquant l’inégalité de Taylor-Lagrange entre 0 et x à l’ordre 2n + 1 :
¯ ¯
2k+1 ¯
n
k x |x|2n+2
NT
¯ X
¯sin(x) − (−1) ¯6 .
¯ ¯
¯ k=0 (2k + 1)! ¯ (2n + 2)!
Là encore, on voit que le majorant tend vers 0 lorsque n → +∞ on en déduit donc que :
n x 2k+1 +∞ x 2n+1
∀ x ∈ R, sin(x) = lim (−1)k ou encore ∀x ∈ R, sin(x) = (−1)n
X X
.
n→+∞
k=0 (2k + 1)! n=0 (2n + 1)!
n x 2k +∞ x 2n
∀ x ∈ R, cos(x) = lim (−1)k ou encore ∀x ∈ R, cos(x) = (−1)n
X X
.
n→+∞
k=0 (2k)! n=0 (2n)!
MO
Remarque 21.6 –
– On peut aussi déduire le développement en série de sin et cos en prenant les parties imaginaire et réelle
du développement en série de e i x .
– Ceci se généralise au cas où f est C ∞ et que ses dérivées en module sont toutes majorées par une même
constante, car on sait que |x − a|n = o(n!).
n n
P dk P
On remarque alors qu’en posant d 0 = a 0 = bxc, on a 10k
= a0 + a k − a k−1 = a n → x, ce qui signifie
k=0 k=0
dn
que la série de terme général est convergente et de somme x :
NE
10n
+∞
X dn
x= n
, c’est le développement décimal de x
n=0 10
+∞ +∞
ZExemple : 13 = 3 7 1 6
P P
10n , 6 = 1 + 10 + 10n ···
n=1 n=2
AIG
• La suite (d n )n >1 des décimales est périodique à partir d’un certain rang si et seulement si x est
rationnel.
Remarque 21.7 –
P dn
• Pour toute suite d’entiers (d n ) telle que ∀n > 1, d n ∈ J0; 9K, la série 10n est convergente car positive à partir
n∈N
du rang 1, et majorée par une série géométrique convergente.
• Si on n’impose pas la condition « (d n ) ne doit pas être constante égale à 9 à partir d’un certain rang », alors il
+∞
P 9
n’y a plus unicité du développement décimal, car par exemple 10n = 1.
n=1
Matrices
Sommaire
AIG
I Matrices, liens avec les applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
2) Structure d’espace vectoriel sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . 206
3) Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
II Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
2) Retour aux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
3) Propriétés du produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
III Matrices carrées inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
2) Retour aux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
IV Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
1) Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
NT
2) Formules du changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
3) Changement de bases et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . 216
4) Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
V Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
2) Propriétés du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
VI Opérations élémentaires sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
2) Calcul pratique du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
3) Calcul pratique de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 222
MO
K désigne un sous-corps de C.
1) Définitions
Définition 22.1
Soient n, p ∈ N∗ , on appelle matrice à n lignes et p colonnes à coefficients dans K, toute application
M : J1; n K × J1; p K → K. Pour (i , j ) ∈ J1; n K × J1; p K, on pose M(i , j ) = Mi , j (ou m i , j ), c’est le coefficient
de la matrice M d’indices i et j , le premier indice est appelé indice de ligne, et le second indice de
colonne.
L’ensemble des matrices à n lignes et p colonnes à coefficients dans K est noté Mn,p (K), on a donc
Mn,p (K) = F (J1; n K × J1; p K , K).
m 1,1 m 1,p
···
.. ..
Notations : Si M ∈ Mn,p (K), on peut écrire : M = (m i , j ) 16i 6n ou bien M = . . .
16 j 6 p
NE
m n,1 · · · m n,p
Remarque 22.1 – L’égalité entre deux matrices est en fait l’égalité entre deux fonctions, par conséquent deux
matrices sont égales lorsqu’elles ont la même taille et les mêmes coefficients.
Cas particuliers :
– Lorsque n = p on dit que la matrice est carrée, l’ensemble des matrices carrées à n lignes est noté
Mn (K) au lieu de Mn,n (K).
– Lorsque n = 1 on dit que M est une matrice ligne : 1 2 −3 ∈ M1,3 (K).
¡ ¢
2
AIG
Définition 22.2
Soit M ∈ Mn,p (K), pour k ∈ J1; p K :
On appelle k-ième vecteur colonne de M le vecteur c k (M) = (m 1,k , . . . , m n,k ), c’est un élément de Kn .
m 1,k
.
On appelle k-ième matrice colonne de M la matrice C k (M) = .. ∈ Mn,1 (K).
m n,k
On appelle k-ième vecteur ligne de M le vecteur Lk (M) = (m k,1 , . . . , m k,p ), c’est un élément de Kp .
On appelle k-ième matrice ligne de M la matrice L k (M) = m k,1 · · · m k,p ∈ M1,p (K).
¡ ¢
1 4
µ ¶
1 2 3
ZExemple : Soit M = ∈ M2,3 (K), on a t M = 2 5 ∈ M3,2 (K).
4 5 6
3 6
• Lk (t M) = Ck (M) et Ck (t M) = Lk (M).
MO
Matrices particulières :
– Matrice nulle : la matrice nulle à n lignes et p colonnes est la matrice de Mn,p (K) dont tous les
coefficients sont nuls, celle-ci est notée On,p . Lorsque p = n, la matrice On,n est notée simplement On ,
c’est la matrice nulle de Mn (K).
– Matrice unité : la matrice unité de Mn (K) est la matrice carrée de taille n, notée In et définie par
In = (δi , j )16i , j 6n , c’est à dire, In est la matrice dont tous les coefficients diagonaux sont égaux à 1, les
autres (coefficients extra-diagonaux) sont tous nuls.
NE
1 0 0
AIG
J1; p K, on note Ei , j la matrice élémentaire qui possède un 1 ligne i colonne j , et des 0 ailleurs, plus
précisément : (Ei , j )k,l = δi ,k δ j ,l .
µ ¶
0 1 0
ZExemple : Dans M2,3 (K), on a E1,2 = .
0 0 0
– Matrice triangulaire supérieure : c’est une matrice carrée dont tous les éléments situés sous la diago-
nale principale sont nuls. L’ensemble des matrices triangulaires supérieures de Mn (K) est noté Tns (K),
on a donc :
M ∈ Tns (K) ⇐⇒ ∀ i , j ∈ J1; n K , i > j =⇒ Mi , j = 0.
– Matrice triangulaire inférieure : c’est une matrice carrée dont tous les éléments situés au-dessus de
la diagonale principale sont nuls. L’ensemble des matrices triangulaires inférieures de Mn (K) est noté
Tni (K), on a donc :
M ∈ Tni (K) ⇐⇒ ∀ i , j ∈ J1; n K , i < j =⇒ Mi , j = 0.
– Matrice symétrique : c’est une matrice qui est égale à sa transposée (elle est donc nécessairement
NT
carrée) : M = t M. L’ensemble des matrices symétriques de taille n est noté S n (K), on a donc :
M ∈ S n (K) ⇐⇒ ∀ i , j ∈ J1; n K , Mi , j = M j ,i .
– Matrice antisymétrique : c’est une matrice qui est égale à l’opposé de sa transposée (elle est donc
nécessairement carrée) : M = −t M. L’ensemble des matrices antisymétriques de taille n est noté An (K),
on a donc :
M ∈ An (K) ⇐⇒ ∀ i , j ∈ J1; n K , Mi , j = −M j ,i ,
on en déduit en particulier que Mi ,i = 0 (les coefficients diagonaux sont nuls).
∀ (i , j ) ∈ J1; n K × J1; p K , (A + B)i , j = Ai , j + Bi , j . On additionne entre eux les éléments ayant les mêmes
indices.
µ ¶ µ ¶ µ ¶
1 2 3 −1 0 1 0 2 4
ZExemple : + = .
4 5 6 −2 3 4 2 8 10
Théorème 22.2
(Mn,p (K), +) est un groupe abélien. L’élément neutre est la matrice nulle : On,p , et si A ∈ Mn,p (K),
l’opposé de A est la matrice −A définie par ∀ (i , j ) ∈ J1; n K × J1; p K , (−A)i , j = −Ai , j .
NE
Mn,p (K) notée λ.M et définie par :∀ (i , j ) ∈ J1; n K × J1; p K , (λ.M)i , j = λ × Mi , j . C’est à dire, chaque
coefficient de M est multiplié par λ.
1 2 2 4
ZExemple : 2 · 3 4 = 6 8 .
5 6 10 12
Propriétés : On peut vérifier facilement, soient A, B ∈ Mn,p (K), soient λ, µ ∈ K :
– 1.A = A.
– λ.(A + B) = λ.A + λ.B.
– (λ + µ).A = λ.A + µ.A.
– (λµ).A = λ.(µ.A).
On peut donc énoncer le résultat suivant : (Mn,p (K), +, .) est un K-espace vectoriel.
AIG
Théorème 22.3 (dimension de Mn,p (K))
Mn,p (K) est un K-e.v de dimension np, et les matrices élémentaires (Ei , j ) 16i 6n constituent une base
16 j 6 p
de Mn,p (K). Cette base est appelée base canonique de Mn,p (K), car les coordonnées d’une matrice
M ∈ Mn,p (K) dans cette base sont les coefficients de M, c’est à dire :
Mi , j .Ei , j .
P
M=
16i 6n
16 j 6 p
Preuve : Il reste à montrer que la famille des matrices élémentaires est libre et génératrice de Mn,p (K). Soit M ∈
Mn,p (K), posons B = Mi , j .Ei , j , on a alors ∀ (k, l ) ∈ J1; n K × J1; p K , Bk,l = Mi , j .(Ei , j )k,l , ce qui donne Bk,l =
P P
16i 6n 1 6i 6n
16 j 6 p 16 j 6 p
Mi , j δi ,k δ j ,l , et donc Bk,l = Mk,l , d’où B = M. Ce qui prouve que toute matrice M s’écrit de manière unique
P
NT
1 6i 6n
16 j 6 p
comme combinaison linéaire des matrices élémentaires, celles-ci constituent donc une base de Mn,p (K), or elles sont
au nombre de np, donc dim(Mn,p (K)) = np. Celle-ci est simple et laissée en exercice.
FExercice 22.1 Montrer que Tns (K), Tni (K), S n (K) et An (K) sont des s.e.v de Mn (K). Pour chacun d’eux donner une
base et la dimension.
Preuve : Pour le premier point, la linéarité est simple à vérifier. On peut voir ensuite que la transposition transforme la
MO
f (e 1 ), . . . , f (e p ), mais chacun de ces vecteurs est lui-même déterminé par ses coordonnées dans la base B0
de F. Notons coord( f (e j )) = (a 1, j , . . . , a n, j ) pour j ∈ J1; p K, c’est à dire :
B0
n
X
∀ j ∈ J1; p K , f (e j ) = ai , j ui .
i =1
On obtient ainsi une matrice A = (a i , j ) 16i 6n cette matrice est définie par : c j (A) = coord( f (e j )).
16 j 6 p B0
Définition 22.7
Soit f ∈ L (E, F), soit B = (e 1 , . . . , e p ) une base de E et soit B0 = (u 1 , . . . , u n ) une base de F, on appelle
NE
matrice de f relative aux bases B et B0 la matrice de Mn,p (K) notée mat ( f ) et définie par : pour
B,B0
j ∈ J1; p K, le j -ième vecteur colonne de cette matrice est coord( f (e j )), autrement dit, le coefficient de
B0
la ligne i colonne j est la coordonnée sur u i du vecteur f (e j ).
f (e 1 ) . . . f (e p )
↓ ↓
a 1,1 a 1,p → u 1
···
.. .. .. ..
mat ( f ) = . . . .
AIG
B,B0
a n,1 ··· a n,p → u n
ZExemples :
– Soit B = (e 1 , e 2 , e 3 ) la base canonique de K3 et soit B0 = (u, v) la base canonique de K2 , soit f ∈
L (K3 , K2 ) définie par ∀ (x, y, z) ∈ K3 , f (x, y, z) = (2x − y + z, x + 2y − 3z). Déterminons A = mat ( f ), on
B,B0
f (e 1 ) = f (1, 0, 0) = (2, 1) = 2u + v
a f (e 2 ) = f (0, 1, 0) = (−1, 2) = −u + v , donc la matrice de f est :
f (e ) = f (0, 0, 1) = (1, −3) = u − 3v
3
µ ¶
2 −1 1
A= .
1 2 −3
Théorème 22.6
Soient E, F deux K-e.v, soit B une base de E et soit B0 une base de F, soient f , g ∈ L (E, F) et soit λ ∈ K.
NE
On a :
mat ( f + g ) = mat ( f ) + mat (g ) et mat (λ. f ) = λ. mat ( f ).
B,B0 B,B0 B, B0 B,B0 B,B0
Autrement dit, l’application : mat : L (E, F) → Mn,p (K) (avec n = dim(F) et p = dim(E)), est une
B,B0
application linéaire. Plus précisément, cette application est un isomorphisme.
Preuve : La vérification de la linéarité est simple (elle découle de la linéarité de l’application coordonnées). Si mat ( f ) =
B,B0
On,p , alors on sait que f est nulle, donc l’application mat est injective, la surjectivité étant évidente, on a donc bien un
B,B0
isomorphisme.
Théorème 22.7
Soit E un K-espace vectoriel de dimension p, soit F un K-espace vectoriel de dimension n, et soit
AIG
u ∈ L (E, F) une application linéaire de rang r , alors il existe une base B de E et une base B0 de F
telles que mat (u) = Jn,p,r où Jn,p,r désigne la matrice de Mn,p (K) définie par :
B, B0
1 0 ··· 0
0 . . .
..
.
.
..
Jn,p,r =
1
0 · · · 0 · · · 0
.. ..
.
.
0 ··· 0
Il y a r fois le scalaire 1 sur la diagonale.
Preuve : D’après le théorème du rang, dim(ker(u)) = p − r , soit H un supplémentaire de ker(u) dans E et soit (e 1 , . . . , e r )
NT
une base de H, soit (e r +1 , . . . , e p ) une base de ker(u), alors B = (e 1 , . . . , e p ) est une base de E. On sait que (u(e 1 ), . . . , u(e r ))
est une base de Im(u), on peut compléter en une base de F : B0 = (u(e 1 ), . . . , u(e r ), v r +1 , . . . , v n ) et la matrice de u dans
les bases B et B0 a exactement la forme voulue.
II PRODUIT MATRICIEL
p
C ∈ Mn,q (K) avec Ci , j =
P
Ai ,k Bk, j . On voit que l’opération à effectuer sur les matrices A et B pour obtenir C
k=1
n’est pas aussi simple que pour la somme. Nous allons définir cette opération comme étant le produit entre
les deux matrices A et B.
1) Définition
Définition 22.8
Soient A ∈ Mn,p (K), soit B ∈ Mp,q (K), on appelle produit de A par B la matrice de Mn,q (K) notée A×B
et définie par :
p
P
∀ (i , j ) ∈ J1; n K × J1; q K , [A × B]i , j = Ai ,k Bk, j .
k=1
On retient ceci en disant que le coefficient [A × B]i , j est le résultat du « produit de la ligne i de A avec
la colonne j de B ».
b 11 ··· b1 j ··· b 1q
NE
B= .. .. ..
. . .
×
b p1 ··· bp j ··· b pq
AIG
Remarque 22.3 :
– Le produit A × B n’est possible que si le nombre de colonnes de A est égal au nombre de lignes de B. Le
résultat a alors autant de lignes que A et autant de colonnes que B.
– Dans Mn (K) le produit matriciel est interne.
– En général A × B 6= B × A, il se peut même que A × B soit défini, mais pas B × A.
ZExemple :
0 1 1 1 −1 3
¡ ¢ ¡ ¢ ¡ ¢
1 −1 3 × −1 2 = 7 2 2 × 1 −1 3 = 2 −2 6
2 1 3 3 −3 9
1
µ ¶ µ ¶ µ ¶
1 2 0 1 1 −2 1 3
NT
¡ ¢ ¡ ¢
1 −1 2 × 2 = 5 × =
−2 1 −1 0 1 −1 −2 −1
3
0 1 0 1 −2 1
µ ¶ µ ¶
1 2 −1 2 × 1 2 = −5 0
× −1 2 n’est pas défini
−2 1 −2 1
0 1 0 1 −2 1
Théorème 22.8
Soit B une base de E, soit B0 une base de F et soit B00 une base de G, soit f ∈ L (E, F) et soit g ∈ L (F, G)
MO
Remarque 22.4 – Cas particulier des endomorphismes : Soit E un K-e.v, soit B une base de E et soient
u, v ∈ L (E) avec A = mat(u) et B = mat(v), on a alors mat(u ◦ v) = mat(u) × mat(v) = A × B, en particulier :
B B B · ¸nB B
∀ n ∈ N, mat(u n ) = mat(u) = An .
B B
NE
x1 y1
.. ..
Preuve : Posons X = . et Y = . , comme A ∈ Mn,p (K) on voit que le produit A × X est bien défini et que c’est une
xp yn
p
P Pn
matrice colonne à n lignes. On a f (x) = x k f (e k ), mais on a f (e k ) = a i ,k u i , ce qui donne :
k=1 µ i =1
n p n n
¶
P P P P
f (x) = a i ,k x k,1 u i = [A × X]i ,1 u i = y i ui .
i =1 k=1 i =1 i =1
Ce qui prouve que Y = A × X.
FExercice 22.4
1/ Soient B la base canonique de K3µ et B0 la base 2 3 2
¶ canonique de K , soit f ∈ L (K , K ) définie par sa matrice dans
1 −2 3
AIG
les bases B et B0 : mat ( f ) = A = , calculer f (x, y, z).
B,B0 2 1 −5
2/ Soit B = (i , j , k) la base canonique de K3 , on pose B0 = (i , i + j , i + j + k), on vérifie que B0 est une base de K3 .
1 −1 0
3
Soit f ∈ L (K ) défini par mat( f ) = A = 0 2 −1, calculer f (x, y, z).
B0
0 0 1
3/ Soient A, B ∈ Mn,p (K) telles que ∀ X ∈ Mp,1 (K), AX = BX, montrer que A = B.
Solution 22.4
x µ ¶
x − 2y + 3z
1/ Coord(x, y, z) = X = y , d’où Coord( f (x, y, z)) = A × X = , donc f (x, y, z) = (x − 2y + 3z, 2x + y − 5z)
B B0 2x + y − 5z
z
(B0 est la base canonique de K2 ).
x−y
2/ On a (x, y, z) = xi + y j + zk = z(i + j + k) + (y − z)(i + j ) + (x − y)i , donc Coord(x, y, z) = X = y − z , d’où
B0
z
NT
x − 2y + z
Coord( f (x, y, z)) = A × X = 2y − 3z , c’est à dire f (x, y, z) = (x − 2y + z)i + (2y − 3z)(i + j ) + z(i + j + k), et
B0
z
donc f (x, y, z) = (x − z, 2y − 2z, z).
3/ Soit B la base canonique de Kp et B0 la base canonique de Kn , soit f ∈ L (Kp , Kn ) l’application linéaire définie
par mat ( f ) = A − B. Pour x ∈ Kp , posons X = Coord(x), on a alors Coord( f (x)) = (A − B)X = On,1 , ce qui montre
B,B0 B B0
que f est l’application nulle, donc sa matrice est nulle, ce qui donne A = B.
A × (B × C) = (A × B) × C ∈ Mn,r (K).
(A + B) × C = A × C + B × C et D × (A + B) = D × A + D × B
NE
Preuve : Soit f ∈ L (Kp , Kn ) l’application canoniquement associée à A, soit g ∈ L (Kp , Kn ) l’application canoni-
quement associée à B, et soit h ∈ L (Kq , Kp ) l’application canoniquement associée à C. L’application linéaire
canoniquement associé à la matrice (A+B)×C est ( f +g )◦h ∈ L (Kq , Kn ), et l’application linéaire canoniquement
associée à A × C + B × C est f ◦ h + g ◦ h ∈ L (Kq , Kn ), or ( f + g ) ◦ h = f ◦ h + g ◦ h, ce qui donne la première égalité.
La seconde se montre de la même façon.
– Transposée d’un produit : Si A ∈ Mn,p (K) et B ∈ Mp,q (K) alors : t (A × B) = t B × t A.
p p
Preuve : [t (A × B)]i , j = [A × B] j ,i = [t B]i ,k [t A]k, j = [t B × t A]i , j .
P P
a j ,k b k,i =
k=1 k=1
FExercice 22.5 Calculer le produit entre deux matrices carrées élémentaires de même taille.
2
Solution 22.5 Soient Ei , j , Ek,l deux matrices élémentaires de Mn (K), soient (r, s) ∈ J1; n K :
n n
[Ei , j × Ek,l ]r,s = [Ei , j ]r,p [Ek,l ]p,s = δi ,r δp, j δp,k δl ,s = δ j ,k δi ,r δl ,s = δ j ,k [Ei ,l ]r,s ,
P P
AIG
p=1 p=1
i,j k,l i ,l
on a donc E ×E = δ j ,k E .
Preuve : On sait déjà que (Mn (K), +, .) est un K-espace vectoriel, le reste découle des propriétés du produit matriciel, il
reste simplement à vérifier la compatibilité entre le produit interne et le produit externe, i.e. : ∀ λ ∈ K, ∀ A, B ∈ Mn (K) :
λ.(A × B) = (λ.A) × B = A × (λ.B), µ ¶ µ ¶
0 0 1 1
ce qui est laissé en exercice. Donnons un contre-exemple pour la non commutativité : soit A = ,B = ,
1 0 0 1
µ ¶ µ ¶
0 0 1 0
on a AB = , mais BA = .
1 1 1 0
Remarque 22.5 :
NT
µ ¶ µ ¶
0 0 0 0
– L’algèbre Mn (K) n’est pas intègre lorsque n > 2. Par exemple : × = O2 . De ce fait, il y a dans
1 0 1 1
µ ¶
0 0
Mn (K) des éléments nilpotents, par exemple : A = .
1 0
– On peut utiliser dans Mn (K) les règles du calcul algébrique, en prenant garde toutefois au fait que le
produit n’est pas commutatif. Par exemple, si A, B ∈ Mn (K) commutent (i.e. AB = BA), alors on peut
utiliser le binôme de Newton pour calculer (A + B)n . Mais si AB 6= BA on peut néanmoins développer, par
exemple : (A + B)2 = A2 + AB + BA + B2 .
1 0 1
FExercice 22.6 Soit A = 0 1. En écrivant A = I3 + J, calculer An pour n ∈ N.
1
0 1 0
MO
0 1 0 0 0 1
Solution 22.6 On a A = I3 + J avec J = 0 0 1, de plus J2 = K = 0 0 0, et J3 = O3 . Comme I3 × J = J × I3 , on peut
0 0 0 0 0 0
utiliser le binôme de Newton :
1 n n(n+1)
n ¡ ¢ 2
n P n k n(n−1)
A = k J = I3 + nJ + 2 K = 0 1 n .
k=0
0 0 1
1) Définition
L’ensemble (Mn (K), +, ×) a une structure d’anneau, on peut donc s’intéresser aux éléments inversibles
de cet anneau. C’est à dire aux matrices M ∈ Mn (K) pour lesquelles il existe une matrice N ∈ Mn (K) telle que
M × N = N × N = In . Si M ∈ Mn (K) est inversible, son inverse sera noté M−1 .
Définition 22.10
Le groupe multiplicatif des inversibles de l’anneau (Mn (K), +, ×) est noté GLn (K).
NE
Remarque 22.6 – Puisque (GLn (K), ×) est un groupe, on a :
• le produit de deux matrices inversibles est inversible.
• Si M, N ∈ GLn (K), alors (M × N)−1 = N−1 × M−1 .
Cas particuliers :
– Matrices diagonales inversibles : Soit D = diag(a 1 , . . . , a n ) ∈ Mn (K), alors D est inversible ssi les coef-
ficients diagonaux sont tous non nuls, auquel cas on a : D−1 = diag( a11 , . . . , a1n ).
Preuve : Si les coefficients diagonaux sont tous non nuls, il est facile de vérifier que la matrice proposée est bien
l’inverse de D.
Réciproquement, supposons D ∈ GLn (K), alors l’équation DX = On,1 d’inconnue X ∈ Mn,1 (K) admet comme
unique solution X = D−1 ×On,1 = On,1 . Supposons a 1 = 0 et prenons X ∈ Mn,1 (K) définie par X i ,1 = δi ,1 , il est facile
de voir que le produit DX donne la première colonne de D, c’est à dire On,1 , pourtant X 6= On,1 : contradiction,
AIG
donc a 1 6= 0. Le raisonnement est similaire pour les autres coefficients.
r
– Polynômes de matrices : Soit P ∈ K[X] et A ∈ Mn (K), si P = a k X k , alors la matrice P(A) est P(A) =
P
k=1
r
a k Ak (la substitution de X par Aest un morphisme d’algèbres), on a alors le résultat suivant : Si
P
k=1
P(A) = On et si P(0) 6= 0, alors A est inversible.
Preuve : P(0) 6= 0 signifie que a 0 6= 0, on a alors :
r r
· ¸ · ¸
P −a k k−1 P −a k k−1
In = A × a0 A = a0 A × A.
µ ¶ k=1 k=1
a b
Par exemple, si A = avec ad − bc 6= 0, on vérifie que A2 − (a + d )A + (ad − bc)I2 = O2 , donc A est inversible
c d
µ ¶
d −b
et A−1 = ad 1−bc [(a + d )I2 − A] = ad 1−bc .
−c a
NT
2) Retour aux applications linéaires
Théorème 22.11
Soient E et F deux K-e.v de même dimension n, soit B une base de E et B0 une base de F, soit
u ∈ L (E, F), alors u est un isomorphisme de E vers F si et seulement si mat (u) ∈ GLn (K), si c’est le cas,
B,B0
· ¸−1
alors mat (u −1 ) = mat (u) .
B0 ,B B, B0
Preuve : Si u est un isomorphisme, posons A = mat (u) et B = mat (u −1 ), on a A, B ∈ Mn (K). On sait que u ◦ u −1 = idF ,
B,B0 B0 , B
−1
d’où In = mat(idF ) = mat (u) × mat (u ) = A × B, de même B × A = mat(idE ) = In .
B0 B,B0 B0 ,B B
MO
Cas des endomorphismes : Si E est un K-espace vectoriel de dimension n et B une base de E, alors on
sait déjà que l’application mat : L (E) → Mn (K) est un isomorphisme d’espaces vectoriels, mais comme
B
(L (E), +, ◦, .) et (Mn (K), +, ×; .) sont des K-algèbres et que mat(u ◦ v) = mat(u) × mat(v) et mat(idE ) = In ,
B B B B
on peut affirmer que l’application mat est un isomorphisme d’algèbres. En particulier celui-ci induit un
B
isomorphisme de groupes : mat : GL(E) → GLn (K).
B
e) ∀ Y ∈ Mn,1 (K), l’équation AX = Y d’inconnue X ∈ Mn,1 (K) admet au moins une solution.
NE
Montrons i i ) =⇒ i i i ) : On a BA = In , d’où AX = On,1 =⇒ BAX = On,1 = X.
Montrons i i i ) =⇒ i v) : Soit f ∈ L (Kn ) l’endomorphisme de Kn canoniquement associé à A, soit x ∈ ker( f ),
posons X = Coord(x) où B désigne la base canonique de Kn , on a alors Coord( f (x)) = AX = On,1 , donc X = On,1 i.e.
B B
→
−
x = 0 , l’application f est donc injective, mais alors elle est bijective : ∀ y ∈ Kn , ∃! x ∈ Kn , f (x) = y, ce qui entraîne
∀ Y ∈ Mn,1 (K), ∃! X ∈ Mn,1 (K), AX = Y (remarquons que A est inversible puisque f est bijective, et que X = A−1 Y).
L’implication i v) =⇒ v) est évidente.
Montrons v) =⇒ i ) : Avec les notations précédentes, l’application f est surjective par hypothèse, donc f est bijective
et par conséquent sa matrice A est inversible.
Remarque 22.7 – Il découle en particulier de ce théorème que si BA = In alors AB = In (car A ∈ GLn (K) et donc
B = A−1 ), ce qui est remarquable.
FExercice 22.7
−1 t
1/ Si A ∈ GLn (K), montrer que t A est inversible et que (t A) = (A−1 ).
AIG
1 λ −1
2/ Soit A = 0 2 1 , déterminer en fonction de λ si A est inversible ou non, si c’est le cas, calculer A−1 .
1 0 1
3/ soit T ∈ Mn (K) une matrice triangulaire supérieure, montrer que T ∈ GLn (K) ssi ses éléments diagonaux sont
tous non nuls, si c’est le cas, montrer que T −1 est également triangulaire supérieure.
Solution 22.7
t t
1/ Posons B = (A−1 ), alors B × t A = (A × A−1 ) = t In = In , donc t A est inversible et son inverse est B.
x a
2/ Soit X = y et soit Y = b , résolvons l’équation AX = Y :
z c
x + λy − z = a
AX = Y ⇐⇒ 2y + z = b
x + z = c
NT
x + λy − z = a
⇐⇒ 2y + z = b
− λy + 2z = c − a (L3 ← L3 − L1 )
λy
x − z + = a
⇐⇒ z + 2y = b .
− (4 + λ)y = c − a − 2b (L3 ← L3 − 2L2 )
D’où la discussion :
– Si λ = −4 : alors le système n’a pas de solution lorsque c − a − 2b 6= 0, la matrice A n’est donc pas inversible.
– Si λ 6= −4 : le système admet une unique solution qui est :
y = a+2b−c
4+λ
z = −2a+λb+2c
MO
4+λ
.
x = 2a−λb+(λ+2)c
4+λ
Or on sait que cette unique solution est X = A−1 Y, on en déduit alors que :
2 −λ λ + 2
1
A−1 = 4+λ 1 2 −1 .
−2 λ 2
x1 y1
.. ..
3/ Supposons les coefficients diagonaux tous non nuls, soit X = . et Y = . , lorsqu’on résout le système
xn yn
TX = Y (d’inconnue X) par substitutions remontantes, on obtient une solution de la forme :
xn = b n,n y n
x n−1 = b n−1,n−1 y n−1 + b n−1,n y n
X= . .
..
x1 = b 1,1 y 1 + · · · + b 1,n y n
Il y a une seule solution, donc T est inversible, on sait alors que X = T −1 Y, donc les coefficients de la matrice T −1
sont les coefficients b i , j ci-dessus, ce qui prouve que T −1 est triangulaire supérieure.
Réciproquement, si T est inversible, alors T −1 T = In , notons a i j les coefficients de T −1 , alors on doit avoir :
NE
a 11 a 1 = 1, donc a 1 6= 0. Puis a 21 a 1 = 0 donc a 21 = 0, puis a 22 a 2 = 1 donc a 2 6= 0. On montre ainsi de proche en
proche que T −1 est triangulaire supérieure et que les coefficients diagonaux de T sont tous non nuls.
IV CHANGEMENT DE BASES
1) Matrice de passage
Définition 22.11
Soit E un K-espace vectoriel, soit B = (e 1 , . . . , e n ) une base de E, soit S = (x 1 , . . . , x p ) une famille de
vecteurs de E, on appelle matrice du système S dans la base B, la matrice A ∈ Mn,p (K) définie par :
∀ (i , j ) ∈ J1; n K × J1; p K , a i , j est la coordonnée sur e i de x j . Autrement dit, pour j ∈ J1; p K, le j -ième
AIG
vecteur colonne de A est C j (A) = coord(x j ). Cette matrice est notée P B,S et appelée matrice de
B
passage de B à S, elle exprime les vecteurs de S dans la base B :
x1 ··· xp → vecteurs de S
↓ ··· ↓
a 1,1 a 1,p → coordonnée sur e 1 premier vecteur de B
···
.. .. ..
P B,S = . . .
a n,1 ··· a n,p → coordonnée sur e n dernier vecteur de B
ZExemples :
– Soit B la base canonique de K3 , soit x 1 = (1, −1, 0) et x 2 = (2, −1, 3), alors la matrice de passage de la
1 2
NE
· ¸−1
Preuve : On a P B0 ,B = mat (idE ) = mat (id−1
E ) = P B,B0 car id−1
E = idE , ce qui prouve le premier point.
B,B0 B0 ,B
Pour le second, on considère la composition : idE ◦ idE : (E, B00 ) → (E, B0 ) → (E, B), ce qui donne mat (idE ) =
B00 ,B
mat (idE ) × mat (idE ), c’est à dire P B,B00 = P B,B0 × P B0 ,B00 .
B0 ,B B00 ,B0
AIG
B0 , B
Coord(idE (x)) = P B,B0 × Coord (x), ce qui donne la relation : X = P B,B0 × X 0 , et donc X 0 = P B0 ,B × X =
B B0
¤−1
P B, B0
£
× X, on peut donc énoncer :
FExercice 22.8 Soit B la base canonique de K3 [X], on pose B0 = (1, X, X(X − 1), X(X − 1)(X − 2)), montrer que B0 est une
base de K3 [X] et pour P ∈ K3 [X] calculer coord(P).
B0
1 0 0 0
0 1 −1 2
Solution 22.8 La matrice de passage de B à B0 est A = 0 0 1 −3, cette matrice est triangulaire et ses élé-
NT
0 0 0 1
ments diagonaux sont tous non nuls, elle est donc inversible, ce qui prouve que B0 est une base de K3 [X]. On a
x a
y b
la relation Coord(P) = A−1 × Coord(P), il faut donc calculer A−1 , on peut résoudre l’équation A ×
= , ce
B 0 B z c
t d
x =a 1 0 0 0
y = b +c +d 0
−1 1 1 1. Finalement, si P = a + bX + cX 2 + d X 3 , alors
qui donne , on en déduit que A =
0
z = c + 3d 0 1 3
t =d 0 0 0 1
a
b + c + d
MO
Coord(P) =
c + 3d .
B0
d
Théorème 22.16 (effet d’un changement de bases sur la matrice d’une application linéaire)
Soient B1 , B01 deux bases de E et P = P B1 ,B01 la matrice de passage, soient B2 , B02 deux bases de F et
NE
soit Q = P B2 ,B02 la matrice de passage, soit u ∈ L (E, F), on pose A = mat (u), A0 = mat
0 0
(u), on a alors
B1 ,B2 B1 , B2
0 −1
la relation : A = Q × A × P.
AIG
. On pose e 1 = (1, 1)
B −1 2
2
et e 2 = (1, −1), montrer que B = (e 1 , e 2 ) est une base de K , et calculer la matrice de u dans la base B0 . En déduire
0
Définition 22.12
Soient A, B ∈ Mn (K), on dit que les matrices A et B sont semblables si et seulement si il existe une
matrice carrée inversible P ∈ GLn (K) telle que A = P −1 × B × P.
NT
Remarque 22.8 :
– Les matrices d’un endomorphisme dans deux bases sont semblables.
– Deux matrices sont semblables lorsque ce sont deux matrices d’un même endomorphisme exprimées
dans deux bases (P étant la matrice de passage).
– La relation « ..est semblable à .. » est une relation d’équivalence dans Mn (K).
Théorème 22.18
Soient A, B ∈ Mn (K), on a la propriété : tr(A × B) = tr(B × A).
MO
n n n n n n
µ ¶ µ ¶
P P P P P P
Preuve : On a tr(A × B) = [A × B]i ,i = Ai ,k Bk,i , ce qui donne tr(A × B) = Bk,i Ai ,k = [B × A]k,k =
i =1 i =1 k=1 k=1 i =1 k=1
tr(B × A).
Soit E un espace vectoriel de dimension n, soient B et B0 deux bases de E, et soit u ∈ L (E), on note
A = mat(u) et A0 = mat(u), on sait alors que A0 = P −1 × A × P avec P = P B,B0 la matrice de passage, d’après le
B B0
théorème précédent, on peut affirmer que tr(A) = tr(A0 ).
Définition 22.13
Soit u ∈ L (E) et soit B une base de E, on appelle trace de l’endomorphisme u le scalaire noté tr(u) et
NE
défini par tr(u) = tr(mat(u)), ce scalaire est indépendant de la base B choisie.
B
Théorème 22.20
L’application trace, tr : L (E) → K, est une forme linéaire non nulle sur L (E), qui vérifie :
∀ u, v ∈ L (E), tr(u ◦ v) = tr(v ◦ u).
Preuve : Soit B une base de E, soit A = mat(u) et B = mat(v), on a par définition, tr(u +v) = tr(mat(u +v)) = tr(mat(u))+
B B B B
tr(mat(v)) = tr(u) + tr(v). De la même façon, on montre que tr(λu) = λtr(u) avec λ ∈ K. On a donc une forme linéaire
B
sur L (E), celle-ci est non nulle, car tr(idE ) = tr(In ) = n = dim(E) > 1. D’autre part : tr(u ◦ v) = tr(mat(u) × mat(v)) =
B B
AIG
tr(mat(v) × mat(u)) = tr(mat(v ◦ u)) = tr(v ◦ u).
B B B
FExercice 22.10 Soit E un espace vectoriel de dimension n, et soit p ∈ L (E) un projecteur, montrer que tr(p) = rg(p).
Solution 22.10 r = rg(p), on a E = Im(p) ⊕ ker(p), soit (e 1 , . . . , e r ) une base de Im(p) et soit (e r +1 , . . . , e n ) une base
de ker(p), alors B = (e 1 , . . . , e n ) est une base de E et il est clair que mat(p) = Jn,n,r (car Im(p) = ker(p − idE )), d’où
B
tr(p) = tr(Jn,n,r ) = r = rg(p).
1) Définition
Définition 22.14
Soit A ∈ Mn,p (K) une matrice, on appelle rang de la matrice A, le rang dans Kn du système constitué
par ses p vecteurs colonnes, notation : rg(A) = rg(C1 (A), . . . , Cp (A)).
NT
Théorème 22.21
Soit u ∈ L (E, F), soit B une base de E, soit B0 une base de F, et soit A = mat (u), alors rg(u) = rg(A).
B,B0
Preuve : Soit B = (e 1 , . . . , e p ), B0 = (e 10 , . . . , e n0 ) et soit B00 = (e 100 , . . . , e n00 ) la base canonique de Kn . Soit v ∈ L (F, Kn )
défini par ∀ i ∈ J1; n K , v(e i0 ) = e i00 , alors v est bijective (transforme une base en une base), donc rg(u) = rg(v ◦ u) =
n
Ak, j e 00j = C j (A), donc rg(u) = rg(A) d’après la définition précédente.
P
rg(v(u(e 1 )), . . . , v(u(e p ))) ; or v(u(e j )) =
k=1
MO
NE
a) Soit f ∈ L (E, F), soit B une base de E avec dim(E) = p, soit B0 une base de F avec dim(F) = n, et soit
A = mat ( f ) ∈ Mn,p (K), on a :
B,B0
i) rg(A) 6 min(n, p).
ii) rg(A) = n ⇐⇒ f est surjective.
iii) rg(A) = p ⇐⇒ f est injective.
b) Si A ∈ Mn (K), alors A ∈ GLn (K) ⇐⇒ rg(A) = n.
c) Si A ∈ Mn,p (K), B ∈ Mp,q (K), alors rg(A × B) 6 min(rg(A), rg(B)).
d) Si A ∈ GLn (K), B ∈ Mn,p (K), alors rg(A × B) = rg(B).
e) Si A ∈ Mn,p (K), B ∈ GLp (K), alors rg(A × B) = rg(A).
AIG
Théorème 22.23
Soit A ∈ Mn,p (K), alors : rg(A) = r ⇐⇒ ∃ U ∈ GLn (K), ∃ V ∈ GLp (K), UAV = Jn,p,r .
−1 −1
d’après les formules de changement de bases, on a Jn,p,r = Q × A × P, ce qui termine la preuve, en prenant U = Q et
V = P.
FExercice 22.11 Montrer qu’une matrice A ∈ Mn,p (K) et sa transposée ont le même rang.
Solution 22.11 Il existe U ∈ GLn (K), V ∈ GLp (K) telles que UAV = Jn,p,r avec r = rg(A). On a alors t V t At U = t Jn,p,r = Jp,n,r ,
NT
ce qui donne le résultat.
1) Définition
Définition 22.15
Soit A ∈ Mn,p (K), on appelle opérations élémentaires sur A les opérations suivantes :
– Permuter deux lignes de A (ou deux colonnes), notation : Li ↔ L j (respectivement Ci ↔ C j ).
– Multiplier une ligne (ou une colonne) par un scalaire non nul, notation : Li ← αLi (respectivement
Ci ← αCi ).
MO
– Ajouter à une ligne (ou une colonne) un multiple d’une autre ligne (respectivement une autre
colonne), notation : Li ← Li + αL j , avec i 6= j (respectivement Ci ← Ci + αC j )).
Théorème 22.24
Effectuer une opération élémentaire sur une matrice A ∈ Mn,p (K) revient à multiplier A à gauche
par une matrice inversible pour les opérations sur les lignes (à droite pour une opération sur les
colonnes).
Preuve : On désigne par Li (A) la ligne i de A sous forme d’une matrice ligne.
Pour l’opération Li ↔ L j (avec i 6= j ) : soit Pi j ∈ Mn (K) la matrice obtenue en effectuant cette opération sur la
matrice In , alors Pi j × A est la matrice que l’on obtient en effectuant l’opération Li ↔ L j dans A, en effet : si k ∉ {i , j },
NE
alors Lk (Pi j × A) = Lk (Pi j ) × A = Lk (In ) × A = Lk (A), si k = i , alors Li (Pi j × A) = Li (Pi j ) × A = L j (In ) × A = L j (A), de
même L j (Pi j × A) = Li (A). De plus, par définition même, Pi j × Pi j = In , donc Pi j est inversible et Pi−1 j
= Pi j .
Pour l’opération Li ← αLi , avec α ∈ K : soit Di (α) ∈ Mn (K) la matrice obtenue en effectuant cette opération sur
∗
In , alors Di (α) × A est la matrice que l’on obtient en effectuant cette même opération sur A, en effet : si k 6= i , alors
Lk (Di (α) × A) = Lk (Di (α)) × A = Lk (In ) × A = Lk (A), et Li (Di (α) × A) = Li (Di (α)) × A = α.Li (In ) × A = α.Li (A). De plus, il
est clair que Di (α) × Di (1/α) = In , donc cette matrice est inversible et Di (α)−1 = Di (1/α).
Pour l’opération Li ← Li + αL j , avec i 6= j et α ∈ K : soit Ti j (α) ∈ Mn (K) la matrice obtenue en effectuant cette
opération sur In , alors Ti j (α) × A est la matrice que l’on obtient en effectuant cette même opération sur A, en effet : si
k 6= i , Lk (Ti j (α) × A) = Lk (Ti j (α)) × A = Lk (In ) × A = Lk (A), et Li (Ti j (α) × A) = Li (Ti j (α)) × A = (Li (In ) + αL j (In )) × A =
Li (In )× A+α.L j (In )× A = Li (A)+α.L j (A). De plus, il est clair que Ti j (α)×Ti j (−α) = In , donc cette matrice est inversible
et Ti j (α)−1 = Ti j (−α).
AIG
Théorème 22.25
Les opérations élémentaires conservent le rang de la matrice.
Définition 22.16
Soient A, B ∈ Mn,p (K), on dit que A et B sont équivalentes lorqu’il existe Q ∈ GLn (K) et O ∈ GLp (K)
telles que B = QAP.
Remarque 22.9 –
– On définit ainsi une relation d’équivalence dans Mn,p (K).
NT
– Deux matrices équivalentes ont le même rang.
– Une opération élémentaire donne une matrice équivalente.
– Deux matrices carrées semblables sont équivalentes.
– A ∈ Mn,p (K) a un rang égal à r si et seulement si A est équivalente à Jn,p,r .
Théorème 22.26
Deux matrices sont équivalentes si et seulement si elles ont le même rang.
Théorème 22.27
p1 ∗ ··· ∗ ··· ∗
.. .. .. ..
0
. . . ··· .
. ..
..
. pr ∗ ··· ∗
Si A ∈ Mn,p (K) est équivalente à B = . , avec p 1 × · · · × p r 6= 0, alors
.
. 0 0 ··· 0
.. .. .. ..
. . . ··· .
0 ··· 0 0 ··· 0
rg(A) = r .
Preuve : Le rang de B est le rang de ses vecteurs lignes, d’où rg(B) = rg(l 1 (B), . . . , l r (B)) = r , or A est équivalente à B donc
rg(A) = rg(B) = r .
NE
La méthode
Celle-ci consiste à transformer la matrice A en la matrice B ci-dessus à l’aide des opérations élémentaires
sur les lignes ou les colonnes (méthode de Gauss), à chaque étape, la matrice obtenue a le même rang que A,
plus précisément, à chaque étape la nouvelle matrice s’écrit sous la forme Uk × A × Vk avec Uk , Vk inversibles.
À l’étape no k, le principe est le suivant :
a) On choisit un pivot (i.e. un coefficient non nul) dans les lignes Lk à Ln et dans les colonnes Ck à Cp .
b) On amène le pivot à sa place, c’est à dire sur la ligne Lk dans la colonne Ck en échangeant éventuelle-
ment deux lignes et/ou deux colonnes.
c) On fait des éliminations en dessous du pivot pour faire apparaître des 0, avec les opérations du type :
Li ← Li + αLk .
AIG
3 1 1
ZExemple : Soit A = 1 0 2
−1 2 −12
Étape 1 : premier pivot : 1 (ligne L1 colonne C2 )
1 3 1 1 3 1
1 3 1
L3 ← L3 + 7L2 donne 0 1 2 .
0 0 0
NT
Étape 3 : pas de troisième pivot.
Donc rg(A) = 2.
FExercice 22.12 Avec la matrice A précédente, déduire de la méthode deux matrices inversibles U et V telles que
UAV = J3,3,2 .
Solution 22.12 On transforme la matrice obtonue précédemment en J3,3,2 :
1 0 0 1 0 0
C2 ← C2 − 3C1 , C3 ← C3 − C1 donnent 0 1 2 , C3 ← C3 − 2C2 donne 0 1 0.
0 0 0 0 0 0
On a obtient la matrice U en effectuant sur lignes de I3 les mêmes opérations que sur les lignes de A (dans le même
ordre), et la matrice V en effectuant sur colonnes de I3 , les mêmes opérations sur les colonnes de A (dans le même
ordre) :
1 0 0 0 1 −2
U = 0 1 0 et V = 1 −3 5
MO
−2 7 1 0 0 1
ZExemple : (Variante) Il peut être parfois avantageux de n’effectuer que des transformations sur les colonnes,
les éliminations se font alors à droite du pivot avec les opérations du type Ci ← Ci + αCk (à l’étape k). Voici
quel peut être l’intérêt :
Soit B = (i , j , k) une base de E et soit u ∈ L (E) défini par mat(u) = A (la matrice précédente), calculons le
B
rang de A (donc le rang de u) en utilisant la variante :
Étape 1 : premier pivot 1 (ligne L1 colonne C2 )
1 3 1
C1 ↔ C2 donne 0 1 2
2 −1 −12
1 0 1 1 0 0
C2 ← C2 − 3C1 donne 0 1
2 , C3 ← C3 − C1 donne 0 1 2 .
2 −7 −12 2 −7 −14
1 0 0
NE
C3 ← C3 − 2C2 donne 0 1 0
2 −7 0
À l’étape 1, la première matrice obtenue est celle du système (u( j ), u(i ), u(k)), la deuxième est la matrice
du système (u( j ), u(i −3 j ), u(k)) et la troisième est celle du système (u( j ), u(i −3 j ), u(k − j )). À la fin de l’étape
2 on a la matrice du système (u( j ), u(i − 3 j ), u(−2i + 5 j + k)), on en déduit que non seulement le rang de u
£ ¤ £ ¤ £ ¤
est égal à 2, mais en plus ker(u) = Vect −2i + 5 j + k et Im(u) = Vect u( j ), u(i − 3 j ) = Vect u( j ), u(i ) .
AIG
alors en déduire que la matrice A est inversible et que son inverse est A−1 = Gr × · · · × G1 , pour obtenir cette
matrice, il suffit d’effectuer les mêmes opérations (dans le même ordre) sur la matrice In en même temps
que sur A. La méthode consiste donc à écrire la matrice A suivie de la matrice In :
A In
a 1,1 ··· a 1,n 1 O
.. .. ..
. . .
a n,1 ··· a n,n O 1
Les opérations sont effectuées sur toute la longueur de chaque ligne. L’objectif est d’obtenir la matrice In
à la place de A, alors on pourra conclure que A est inversible, et là où il y avait In on aura A−1 , on utilise la
méthode de Gauss-Jordan 1 :
À l’étape k :
– On choisit un pivot (i.e. un coefficient non nul) dans les lignes Lk . . . Ln et dans la colonne Ck .
NT
– On amène le pivot à sa place : ligne Lk (en échangeant éventuellement deux lignes).
– On fait les éliminations (pour faire apparaître des zéros) en dessous et au-dessus du pivot avec les
opérations : Li ← Li + αLk .
Il y a donc au plus n étapes.
Il y a deux cas possibles au cours du processus :
– Si à chaque étape on peut trouver un pivot, alors après l’étape n, il ne reste plus qu’à diviser chaque
ligne par le pivot correspondant pour obtenir la matrice In : c’est le cas où la matrice A est inversible.
– Si au cours de l’étape k on ne peut pas trouver de pivot dans la colonne Ck et dans les lignes Lk . . . Ln ,
alors on est dans la situation suivante, à l’issue de l’étape k − 1 :
p1 0 0 ∗ ∗ ∗ ∗ ··· ··· ∗
.. .. .. .. .. ..
0 . 0 . . . . .
.. .. ..
MO
. p k−1 ∗ ∗ ∗ . .
.. .. ..
. 0 0 ∗ ∗ . .
.. .. .. .. .. .. ..
. . . . . . .
0 ··· 0 0 ∗ ∗ ∗ ··· ··· ∗
p 1 , . . . , p k−1 désignent les pivots des k − 1 étapes précédentes, ces pivots étant non nuls, il est facile
de voir qu’avec des opérations sur les colonnes, on peut faire apparaître des zéros dans la colonne k
sur les lignes L1 . . . Lk−1 , sans changer les coefficients des lignes Lk . . . Ln de cette même colonne. La
matrice ainsi obtenue possède une colonne nulle, donc son rang est inférieur ou égal à n − 1, or cette
matrice a le même rang que A, donc nous sommes dans le cas où A est non inversible.
2 4 2 2 4 2 1 0 0
1. JORDAN Camille (1838 – 1922) : mathématicien français dont l’œuvre considérable touche tous les domaines des mathéma-
tiques.
2 4 2 1 0 0
NE
0 1 1 0 1 0
0 −2 −3 −1 0 1
2 0 −2 1 −4 0
0 1 1 0 1 0
0 0 −1 −1 2 1
2 0 0 3 −8 −2
AIG
0 1 0 −1 3 1
0 0 −1 −1 2 1
3/2 −4 −1
Dénombrement
Sommaire
AIG
I Cardinal d’un ensemble fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
1) Rappels : injections, surjections, bijections, permutations . . . . . . . . . . . . . . . . . 224
2) Ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
3) Propriétés du cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
II Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1) Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
2) Le nombre d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
3) Le nombre de parties d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
4) Le nombre de bijections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
5) Le nombre de p-parties (ou p-combinaisons) . . . . . . . . . . . . . . . . . . . . . . . . 228
Définition 23.1
Soit E un ensemble, on appelle permutation de E toute bijection de E vers E. L’ensemble des permu-
tations de E est noté S (E).
Théorème 23.1
Soit E un ensemble non vide, alors (S (E), ◦) est un groupe (non commutatif en général), appelé
groupe des permutations de E.
Preuve : Celle - ci est simple et laissée en exercice. On vérifie que l’élément neutre est l’application identité de E : idE , et
que le symétrique de f ∈ S (E) est la bijection réciproque f −1 .
2) Ensembles finis
Définition 23.2
Soit E un ensemble non vide, on dit que E est fini lorsqu’il existe un entier n ∈ N∗ et une bijection
NE
φ : J1; n K → E. Si c’est le cas, on pose card(E) = n (ou |E| = n ou #(E) = n), sinon on dit que E est un
ensemble infini. Par convention ; est un ensemble fini de cardinal nul.
Remarque 23.1 :
– Dire que E est fini de cardinal n > 1 revient à dire que l’on peut indexer les éléments de E de 1 à n :
E = {e 1 , . . . , e n } (les éléments étant distincts deux à deux).
– Si E est fini de cardinal n + 1 et si a ∈ E, alors E \ {a} est fini de cardinal n.
En effet : soit φ : J1; n + 1K → E une bijection, soit τ la permutation de E qui échange φ(n + 1) et a, alors
τ ◦ φ : J1; n + 1K → E est une bijection qui envoie n + 1 en a, elle induit donc une bijection de J1; n K sur
E \ {a}.
– Si E est fini de cardinal n et b ∉ E, alors E ∪ {b} est fini de cardinal n + 1.
AIG
Théorème 23.2
Soit n ∈ N∗ , toute partie de J1; n K est un ensemble fini de cardinal au plus égal à n. De plus, si F ⊂ J1; n K
et si card(F) = n alors F = J1; n K.
Preuve : Par récurrence sur n : pour n = 1 c’est évident. Supposons le théorème établi pour un entier n > 1 et soit
F une partie de J1; n + 1K. Si n + 1 ∉ F, alors F est une partie de J1; n K donc (hypothèse de récurrence) F est fini et
card(F) 6 n < n + 1. Si n + 1 ∈ F, alors F \ {n + 1} est une partie de J1; n K, donc F \ {n + 1} est un ensemble fini de cardinal
p 6 n, mais alors F est fini de cardinal p + 1 6 n + 1. Supposons maintenant que card(F) = n + 1, on a nécessairement
n + 1 ∈ F, d’où F \ {n + 1} ⊂ J1; n K et card(F \ {n + 1}) = n, donc F \ {n + 1} = J1; n K (hypothèse de récurrence) et finalement
F = J1; n + 1K.
Théorème 23.3
Soient n, p ∈ N∗ , et soit f : J1; n K → J1; p K une application :
NT
– Si f est injective, alors n 6 p.
– Si f est surjective, alors n > p.
– Si f est bijective, alors n = p.
Preuve : On remarque que la troisième propriété découle des deux précédentes. Montrons la première : on a f : J1; n K →
J1; p K une injection, alors f induit une bijection de J1; n K sur Im( f ), donc Im( f ) est fini de cardinal n, or Im( f ) est une
partie de J1; p K, donc Im( f ) est fini de cardinal au plus p, i.e. n 6 p.
Montrons la deuxième : f : J1; n K → J1; p K est surjective, alors il existe une application g : J1; p K → J1; n K telle que
f ◦ g = idJ1;p K , donc g est injective et par conséquent p 6 n.
Conséquence : soit E un ensemble fini non vide, il existe un entier n > 1 et une bijection φ : J1; n K → E, s’il
existe un autre entier p et une bijection ψ : J1; p K → E, alors l’application ψ−1 ◦ φ est une bijection de J1; n K
MO
sur J1; p K, donc n = p. Ce qui prouve l’unicité du nombre card(E) et justifie à posteriori la définition.
Théorème 23.4
Soit n > 1, toute application injective (respectivement surjective) de J1; n K dans J1; n K est bijective.
Preuve : Si f : J1; n K → J1; n K est injective, alors f induit une bijection de J1; n K sur Im( f ), donc Im( f ) est fini de cardinal
n, mais Im( f ) ⊂ J1; n K, donc Im( f ) = J1; n K i.e. f est surjective (et donc bijective).
Supposons maintenant que f est surjective, alors il existe g : J1; n K → J1; n K telle que f ◦ g = idJ1;n K , mais alors g est
injective, donc bijective d’après ce qui précède et f = ( f ◦ g ) ◦ g −1 composée de bijections, donc f est bijective.
3) Propriétés du cardinal
Théorème 23.5
Soient E et F deux ensembles finis non vides, avec n = card(E) et p = card(F) et soit f : E → F une
NE
application :
• Si f est injective alors n 6 p.
• Si f est surjective alors n > p.
• Si f est bijective alors n = p.
Preuve : Soient φ1 : J1; n K → E et φ2 : J1; p K → F deux bijections. Si f est injective alors φ2 ◦ f ◦ φ1 est une injection de
J1; n K vers J1; p K, donc n 6 p. Le raisonnement est le même pour les deux autres points.
Remarque 23.2 – Il en découle que si F est en bijection avec E et si E est fini, alors F est fini de même cardinal
de E.
Théorème 23.6
AIG
Soient E et F deux ensembles finis non vides de même cardinal et soit f : E → F une application, les
assertions suivantes sont équivalentes :
a) f est injective.
b) f est surjective.
c) f est bijective.
Preuve : Soient φ : J1; n K → E et ψ : J1; n K → F deux bijections, alors g = ψ−1 ◦ f ◦ φ est une application de J1; n K vers lui
- même, avec f = ψ ◦ g ◦ φ−1 . Si f est injective, alors g aussi, donc g est bijective et f aussi. Si f est surjective, alors g
aussi et donc g est bijective et f aussi.
ZExemple : Soit A un anneau intègre fini, alors A est nécessairement un corps. En effet, soit a un élément non
nul de A, l’application f : A → A définie par f (x) = a × x est injective (car A est intègre), or A est fini, donc f
est bijective, par conséquent il existe a 0 ∈ A tel que f (a 0 ) = 1 i.e. a × a 0 = 1. De même il existe a 00 ∈ A tel que
a 00 × a = 1, mais alors a 00 = a 00 × (a × a 0 ) = (a 00 × a) × a 0 = a 0 . Finalement, tout élément non nul de A possède
NT
un inverse et donc A est un corps.
Théorème 23.7
Si E est un ensemble fini et si F est une partie de E, alors F est fini. De plus, si card(F) = card(E), alors
F = E.
Preuve : On écarte le cas évident où E = ;. Soit n = card(E) et φ : J1; n K → E une bijection. Notons i : F → E définie par
i (x) = x, i est une injection donc g = φ−1 ◦ i est une injection de F vers J1; n K qui induit donc une bijection de F sur
Im(g ), or Im(g ) est une partie de J1; n K, donc Im(g ) est un ensemble fini de cardinal p 6 n, par conséquent F est fini de
cardinal p. Si n = p, alors Im(g ) = J1; n K donc g est une bijection ce qui entraîne que i est une bijection, donc Im(i ) = E,
c’est à dire F = E.
MO
Théorème 23.8
Soient E et F deux ensembles finis, l’ensemble E ∪ F est fini et :
card(E ∪ F) = card(E) + card(F) − card(E ∩ F)
Preuve : Si l’un des deux est vide, il n’y a rien à démontrer. Supposons E et F non vides, dans un premier temps on
envisage le cas où E∩F = ;, soit f : J1; n K → E et g : J1; p K → F deux bijections, on considère l’application φ : J1; n + p K →
E ∪ F définie par φ(k) = f (k) si 1 6 k 6 n et φ(k) = g (k − n) si n + 1 6 k 6 n + p, comme E ∩ F = ; on voit que φ est
injective, d’autre part la surjectivité est évidente, donc φ est bijective, ce qui montre que E ∪ F est fini de cardinal n + p.
Passons maintenant au cas général : posons I = E ∩ F, on a E ∪ F = E ∪ (F \ E) et ces deux ensembles sont disjoints
et finis, donc E ∪ F est fini et card(E ∪ F) = card(E) + card(F \ E), d’autre part F = I ∪ (F \ E) et ces deux ensembles sont
disjoints et finis, donc card(F) = card(I)+card(F\E), on a donccard(F\E) = card(F)−card(I), ce qui donne la formule.
Théorème 23.9
Si E et F sont deux ensembles finis, alors l’ensemble E × F est fini et card(E × F) = card(E) × card(F).
NE
Preuve : Si l’un des deux est vide, alors E × F est vide et le résultat est évident. Soit n = card(E), si n = 1 alors E = {e}
et l’application f : F → E × F définie par f (x) = (e, x) est une bijection, donc E × F est fini de même cardinal que F, le
théorème est donc vrai pour n = 1.
Supposons le théorème démontré pour un entier n > 1 et supposons card(E) = n + 1, on fixe un élément e ∈ E et on
pose E0 = E \ {e}. On a E × F = ({e} × F) ∪ (E0 × F), ces deux ensembles sont disjoints et finis (hypothèse de récurrence),
donc E×F est fini et card(E×F) = card({e}×F)+card(E0 ×F) = card(F)+card(E0 )×card(F) = (n +1)×card(F). Le théorème
est démontré au rang n + 1.
Conséquence : si p ∈ N∗ , et si E est fini de cardinal n > 1, alors E p (ensemble des p - uplets d’éléments de E)
est fini et card(E p ) = [card(E)]p .
II DÉNOMBREMENT
AIG
1) Préliminaires
Définition 23.3
Dénombrer un ensemble fini E c’est calculer son cardinal. Dans la pratique, c’est le mettre en bijection
avec un ensemble F dont on connaît le cardinal.
(
1 si n = 0
La fonction factorielle : elle est définie sur N par : n! = . On peut également en donner
1×···×n si n > 0
une définition récurrente : 0! = 1 et ∀ n ∈ N, (n + 1)! = (n + 1) × n!.
Preuve : Celle - ci est simple, c’est un raisonnement par récurrence sur n, sachant que la formule est vraie pour n = 2.
Application – Si f : E → F est une application et si E est fini, alors :
card( f −1 ( y ))
X © ª
card(E) =
y∈Im( f )
Dans le cas où les éléments de Im( f ) ont tous le même nombre d’antécédents p, alors card(E) = pcard(Im( f )).
2) Le nombre d’applications
MO
Théorème 23.11
Soit E et F deux ensembles finis avec p = card(E) et n = card(F), l’ensemble des applications de E vers
F, F (E, F) (ou FE ), est fini de cardinal n p .
Définition 23.4
NE
Soit E un ensemble et A une partie ( de E, on appelle fonction caractéristique de A l’application
1 si x ∈ A
1A : E → {0; 1} définie par 1A (x) = .
0 sinon
Théorème 23.12
Si E est fini de cardinal n, alors P (E), l’ensemble des parties de E, est fini de cardinal 2n .
Preuve : Il est facile de vérifier que l’application de P (E) vers F (E, {0; 1}) qui à toute partie de E associe sa fonction
caractéristique, est une bijection. Or l’ensemble F (E, {0; 1}) est fini de cardinal 2n ce qui donne le résultat.
AIG
Remarque 23.4 – Le théorème justifie le raisonnement suivant : pour construire une partie de E il y a deux
choix possibles pour chaque élément de E (on le prend ou on ne le prend pas), comme il y a n éléments dans E
cela fait 2n constructions possibles, soit 2n parties.
4) Le nombre de bijections
Théorème 23.13
Si E et de F sont deux ensembles finis de même cardinal n > 0, il y a n! bijections de E vers F. En
particulier, card(S (E)) = n! (groupe des permutations de E).
Preuve : Lorsque card(E) = card(F) = n, l’ensemble des bijections de E vers F est inclus dans l’ensemble des applications,
c’est donc un ensemble fini de cardinal inférieur ou égal à n n . On montre ensuite la formule par récurrence sur n,
le résultat étant immédiat pour ª n = 1, supposons le vrai au rang n − 1. Posons F = {d 1 , . . . , d n }, soit e ∈ E fixé, on pose
NT
©
Dk = f ∈ Bij(E, F) / f (e) = d k pour k ∈ J1; n K. Il est clair que Bij = D1 ∪. . .∪Dn et que card(Dk ) = card(Bij(E\{e}, F\{d k }),
on obtient ainsi que card(Bij(E, F)) = n × (n − 1)! = n!.
Définition 23.5
Soit E un ensemble de cardinal n ∈ N et soit p ∈ N, on appelle p - combinaison d’éléments de E (ou p
- partie) toute partie de E de cardinal p. L’ensemble des p - parties de E est noté P p (E).
Remarque 23.5 – P p (E) est un ensemble fini car il est inclus dans P (E), et son cardinal est majoré par 2n .
MO
Cas particuliers :
a) Si p = 0 la seule partie de E à 0 élément est ;, donc card(P 0 (E)) = 1.
b) Si p = n, la seule partie de E à n éléments est E, donc card(P n (E)) = 1.
c) Si p > n il n’y a aucune partie de E à p éléments donc dans ce cas, card(P p (E)) = 0.
Théorème 23.14
Qp−1
(n−k) ¡n ¢
Si n, p ∈ N, alors card(P p (E)) = k=0
p! = p (avec la convention que le produit vaut 1 lorsque p = 0,
et que np = 0 si p > n).
¡ ¢
NE
des p - parties de E ne contenant pas a, alors P p (E) = A ∪ B et A ∩ B = ;, donc card(P p (E)) = card(A) + card(B),
Qp−1 Qp−2
(n−k) (n−k)
or card(B) = k=0p! (car B est en bijection avec P p (E \ {a})) et card(A) = k=0
(p−1)! (car A est en bijection avec
P p−1 (E \ {a})), d’où :
n × · · · × (n − p + 1) n × · · · × (n − p + 2)
card(P p (E)) = +
p! (p − 1)!
n × · · · (n − p + 2)[n − p + 1 + p]
=
p!
(n + 1)n × · · · (n + 1 − p + 1)
=
p!
AIG
FExercice 23.1 À l’aide d’un raisonnement de dénombrement, retrouver sans calcul les propriétés suivantes :
¡n ¢ ¡ n ¢
1/ Si p 6 n, p = n−p .
¡n ¢ ¡ n ¢ ¡n+1¢
2/ Si 0 6 p 6 n − 1, p + p+1 = p+1 .
n ¡ ¢ n ¡ ¢
n n
3/ Binôme de Newton : ∀ n ∈ N, ∀ x, y ∈ C, (x + y)n = x k y n−k = x n−k y k .
P P
k k
k=0 k=0
¡n ¢ n ¡n−1¢
4/ Si 1 6 p 6 n, p = .
p p−1
Solution 23.1
1/ L’application de f : P p (E) → P n−p (E) définie par f (A) = A (complémentaire de A dans E) est bijective.
¡n ¢
2/ Pour compter le nombre de (p + 1)-parties de J1; n + 1K, on compte celles qui contiennent n + 1 (il y en a p ) et
¡ n ¢
celles qui ne contiennent pas n + 1 (il y en a p+1 ).
3/ Lorsqu’on développe (x + y)n = (x + y) × · · · × (x + y) on obtient une somme de termes f 1 × · · · × f n où f i provient
k n−k
du facteur numéro i , on a f i = x ou y, ¢ conséquent on a une somme de termes du type x y
¡npar avec k ∈ J0; n K,
NT
et chacun de ces termes est obtenu k fois (k facteurs parmi n égaux à x et les autres égaux à y).
4/ Considérons un ensemble constitué de p¡boules rouges et n − p bleues. Le nombre de façons de ranger ces n
boules dans n boites (une par boite) est : np (p boites parmi n pour les rouges, celles qui restent sont pour les
¢
bleues),¡ imaginons que pour chacun de ces rangements on peint une des boules rouges en blanc, ¡ ¢ on obtient
alors p np façons de ranger n boules dont 1 blanche, p − 1 rouges et n − p bleues, c’est à dire n n−1
¢
p−1 (une boite
pour la blanche, p − 1 pour les rouges, celles qui restent pour les bleues).
MO
Sommaire
AIG
I Univers finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
1) Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
2) Évènements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
II Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
1) Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
3) Probabilité des événements élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
III Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
2) Probabilités composées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
3) Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
4) Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
IV Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
NT
1) Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
2) Indépendance d’une famille d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Le calcul des probabilités est la branche des mathématiques qui modélise les phénomènes aléatoires 1 .
I UNIVERS FINIS
1) Expérience aléatoire
Définition 24.1
Une expérience est dite aléatoire lorsque l’issue ne peut pas être prédite avec certitude (on parle aussi
d’épreuve aléatoire). On considère qu’à une expérience aléatoire correspond un ensemble contenant
MO
tous les résultats possibles, cet ensemble est appelé univers et noté Ω.
Remarque 24.1 – On ne donne pas de définition mathématique du terme expérience. Par contre, l’univers Ω
associé à une expérience aléatoire, est un ensemble au sens mathématique du terme, sa détermination résulte
d’une modélisation de l’expérience (avec éventuellement des choix simplificateurs).
ZExemples :
– Expérience : on lance un dé, on note le numéro de la face supérieure.
Univers : Ω = J1; 6K.
– Expérience : on lance trois dés distincts, on note les trois numéros de la face supérieure.
3
Univers : Ω = J1; 6K , ensemble des triplets de nombres entre 1 et 6.
– Expérience : on prélève trois cartes d’un jeu de 32.
Univers : Ω est l’ensemble des parties à 3 éléments de l’ensemble des 32 cartes.
1. Andreï Kolmogorov (25 avril 1903 – 20 octobre 1987) : mathématicien russe, fondateur de la théorie des probabilités dans les
années 30.
NE
Conformément au programme on se limitera au cas où Ω est un ensemble non vide et fini.
2) Évènements
Définition 24.2
On considère une expérience dont l’univers est Ω (fini).
• Les éléments de Ω sont appelés les possibles (ou éventualités), en général notés avec une lettre
minuscule : Ω = {ω1 , . . . , ωn }.
• On appelle événement toute partie de Ω. Un singleton est appelé événement élémentaire. L’en-
semble des événements est donc P (Ω).
• L’ensemble vide est appelé événement impossible et Ω et appelé événement certain.
• Si A est un événement, on appelle événement contraire l’événement A (parfois noté Ac , c’est le
AIG
complémentaire de A dans Ω).
• On dit que l’événement A implique (ou entraîne) l’événement B lorsque A ⊂ B.
ZExemple : Expérience : lancer un dé. Univers Ω = J1; 6K. Les événements élémentaires sont {1}, {2}, {3}, {4},
{5}, {6}. L’événement « obtenir un chiffre pair » est représenté par A = {2, 4, 6}, l’événement « obtenir un chiffre
impair » est l’événement contraire, représenté par Ac = {1, 3, 5}. L’événement « obtenir le chiffre 1 » implique
l’événement « obtenir un chiffre impair ».
Remarque 24.2 – On retrouve une partie de la définition de partition, la différence est qu’on ne demande pas
à ce que les événements Ai soient non vides.
ZExemples :
– Si A est un événement alors A; Ac est un système complet d’événements.
© ª
II ESPACES PROBABILISÉS
Une fois l’expérience clairement définie et son univers déterminé, on cherche à définir le pourcentage de
chance de réalisation des événements. L’approche statistique consiste à répéter n fois l’expérience et calculer
la fréquence de réalisation de chaque événement A : f n (A) = nombre de réalisations
n
de A
. La fréquence apparaît
alors comme une application de P (Ω) vers [0; 1] qui vérifie f n (Ω) = 1 et f n (A ∪ B) = f n (A) + f n (B) lorsque A et
B sont incompatibles (il en découle qu’il suffit de connaître la fréquence de chaque événement élémentaire).
C’est cette approche qui est à l’origine de la définition suivante.
1) Probabilité
NE
Définition 24.5
Soit Ω un univers fini. On appelle probabilité sur Ω toute application P de P (Ω) vers [0; 1] vérifiant :
• P(Ω) = 1 ;
• P est additive, c’est à dire :
∀ A, B ∈ P (Ω), si A et B sont incompatibles, alors P(A ∪ B) = P(A) + P(B).
Le couple (Ω, P) est appelé espace probabilisé.
ZExemples : (
1 si i = 1
– Si Ω = {ω1 , . . . , ωn }, alors en posant P({ωi }) = avec l’hypothèse que P est additive, on définit
0 sinon
une probabilité sur Ω (dans cet exemple, ω1 est une issue certaine).
AIG
– Si Ω = {ω1 , . . . , ωn }, alors en posant P({ωi }) = n1 avec l’hypothèse que P est additive, on définit une
probabilité sur Ω.
Attention !
Il n’y a pas unicité de la probabilité sur un univers fini, le choix de celle-ci fait partie de la modélisation de
l’expérience et résulte souvent d’une hypothèse (par exemple : toutes les issues sont équiprobables).
2) Propriétés
Théorème 24.1
Soit (Ω, P) un espace probabilisé, et soient A et B deux événements :
• P(;) = 0 ;
NT
• P(Ac ) = 1 − P(A) ;
• si A ⊂ B alors P(A) 6 P(B) (on dit que P est croissante) et P(B \ A) = P(B) − P(A) ;
• P(A ∪ B) = P(A) + P(B) − P(A ∩ B) ;
• pour toute famille (Ai )i ∈J1;n K d’événements incompatibles deux à deux :
n
P(A1 ∪ · · · ∪ An ) = P(Ai ).
P
i =1
Preuve :
• On a 1 = P(Ω) = P(Ω ∪ ;) = P(Ω) + P(;) = 1 + P(;), d’où le résultat.
• On a 1 = P(Ω) = P(A ∪ Ac ) = P(A) + P(Ac ), d’où le résultat.
• On a P(B) = P(A ∪ B \ A) = P(A) + P(B \ A) > P(A) car une probabilité est positive. Les deux résultats en découlent.
• On a P(B) = P([A ∩ B] ∪ B \ A) = P(A ∩ B) + P(B \ A), d’où P(B \ A) = P(B) − P(A ∩ B), puis on a P(A ∪ B) = P(A) + P(B \ A),
MO
le résultat en découle.
• récurrence sur n.
FExercice 24.1 (Inégalité de Boole)
n
Montrer que toute famille d’événements A1 , . . . , An on a P(A1 ∪ · · · ∪ An ) 6 P(Ai ).
P
i =1
Solution 24.1 Pour n = 2 : P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) − P(A1 ∩ A2 ) 6 P(A1 ) + P(A2 ). On termine ensuite par récurrence
sur n.
Théorème 24.2
Soit (Ai )1∈J1;n K un système complet d’événements, on a :
n
P(Ai ) = 1 ;
P
•
i =1
n
• Pour tout événement B : P(B) = P(B ∩ Ai ).
P
i =1
NE
Preuve : Les événements de la famille sont incompatibles deux à deux et leur réunion donne Ω, donc 1 = P(Ω) =
n
P(A1 ∪ · · · ∪ An ) = P(Ai ).
P
i =1
B = B ∩ Ω = B ∩ (A1 ∪ · · · ∪ An ) = (B ∩ A1 ) ∪ · · · ∪ (B ∩ An ) et ces événements sont incompatibles deux à deux, d’où
n
P(B) = P(B ∩ Ai ).
P
i =1
Théorème 24.3
Soit Ω = {ω1 , . . . , ωn } un univers fini.
AIG
n
• Soit P une probabilité sur Ω et soit p i = P(ωi ), on a alors : ∀i ∈ J1; n K, p i > 0, et
P
p i = 1.
i =1
• Réciproquement, si (p i )i ∈J1;n K est une famille de réels positifs et de somme égale à 1, alors il
existe une probabilité P sur Ω telle que ∀i ∈ J1; n K, P({ωi }) = p i . Pour tout événement A, on a alors
P(A) =
P
pi .
ωi ∈A
Théorème 24.4
Sur tout univers fini Ω, il existe une unique probabilité P qui prend la même valeur sur chaque
NT
événement élémentaire (on parle d’événements équiprobables). Elle est définie par ∀ω ∈ Ω, P({ω}) =
1 card(A)
card(Ω) , on l’appelle probabilité uniforme sur Ω, et pour tout événement A on a P(A) = card(Ω) .
1
card(Ω) = 1. On a alors P(A) = P({ω}) =
P P
Preuve : Il suffit de vérifier que la valeur commune est un réel positif, et que
ω∈Ω ω∈A
P 1 card(A)
card(Ω) = card(Ω) .
ω∈A
card(A)
Remarque 24.3 – La formule P(A) = card(Ω) s’énonce parfois « nombre de cas favorables sur nombre de cas
possibles », dans ce cadre, calculer des probabilités se ramène à des calculs de dénombrement.
FExercice 24.3
1/ On lance six fois un dé non truqué. Quelle est la probabilité d’obtenir une fois chaque numéro ?
2/ On prélève cinq cartes au hasard dans un jeu de 52. Quelle est la probabilité d’avoir une paire ?
3/ On distribue 52 cartes à 4 joueurs (13 par joueur). Quelle est la probabilité que chacun reçoive un as ?
Solution 24.3
MO
6
1/ Ω = J1; 6K , les issues sont considérées équiprobables. L’événement cherché est l’ensemble 6-listes contenant
une et une seule fois chaque chiffre, par conséquent card(A) = 6! et P(A) = 66!6 ≈ 0,015.
2/ Ω est l’ensemble des 5-parties de l’ensemble des cartes. Dénombrons l’événement contraire (aucune paire), il
faut donc 5 hauteurs de cartes différentes et pour chacune des hauteurs il¡ faut choisir une carte parmi 4 ce qui
13¢ 5
5 4
¡13¢ 5
donne 5 4 mains dans cet événement, d’où la probabilité cherchée 1 − 52 ≈ 0,49.
¡ ¢
5
¡48¢ ¡36¢ ¡24¢ ¡12¢
4 12 ×3 12 ×2 12 ×1 12 4!134
3/ La probabilité cherchée est ¡52¢¡39¢¡26¢ = 52·51·50·49 ≈ 0,105.
13 13 13
Soit (Ω, P) un univers fini muni de la probabilité uniforme (par exemple), soit A un événement dont on
sait qu’il est réalisé, un événement B est réalisé si et seulement si A ∩ B est réalisé, donc la probabilité de B
P(A∩B)
sachant que A est réalisé est card(A∩B) card(A∩B)/card(Ω)
card(A) = card(A)/card(Ω) = P(A) .
1) Définition
NE
Définition 24.6
Soit (Ω, P) un espace probabilisé fini et A un événement tel que P(A) 6= 0. Pour tout événement B on
appelle probabilité de B sachant A le réel noté PA (B) est défini par PA (B) = P(A∩B)
P(A) .
AIG
Attention !
On veillera à ne pas confondre PA (B) et P(A ∩ B).
Remarque 24.4 –
– Dans certains ouvrages la probabilité conditionnelle PA (B) est notée P(B | A), mais nous éviterons cette
notation qui pourrait laisser croire que B | A est un événement.
– Comme PA est une probabilité, on a en particulier PA (Bc ) = 1 − PA (B).
FExercice 24.4 Une famille a deux enfants, chaque enfant a une chance sur deux d’être une fille.
1/ Quelle est la probabilité que les deux enfants soient des filles sachant que l’aînée est une fille ?
2/ Quelle est la probabilité que les deux enfants soient des filles sachant qu’il y a au moins fille ?
Solution 24.4 L’univers est Ω = {F, G}2 ensemble des couples de lettres F ou G (premier enfant et deuxième enfant).
2
1/ L’événement « l’aînée est une fille » est A = {(F, G), (F, F)} et P(A) = = 12 . L’événement cherché est B = {(F, F)} qui
NT
4
P(B)
implique A, d’où PA (B) = P(A) = 12 .
2/ L’événement « au moins un enfant est une fille » est A = {(F, G); (F, F); (G, F)} et P(A) = 34 . L’événement cherché est
P(B)
B = {(F, F)} qui implique A, d’où PA (B) = P(A) = 13 .
2) Probabilités composées
La plupart du temps on ne calcule pas PA (B) à partir de P(A ∩ B) car le plus souvent on connaît PA (B) et
P(A) ce qui permet d’en déduire P(A ∩ B).
Théorème 24.6
Si A et B sont deux événements alors :
• P(A ∩ B) = P(A) × PA (B) si P(A) 6= 0 ;
MO
Solution 24.5 Notons A l’événement « la première boule tirée est noire », et B l’événement « la deuxième boule tirée est
noire ». On cherche à calculer P(A ∩ B), on a P(A ∩ B) = P(A) × PA (B) = 62 × 37 = 17 .
Preuve : Remarquons que toutes les probabilités conditionnelles de la formule sont bien définies car 0 6= P(A1 ∩ · · · ∩
An−1 ) 6 · · · 6 P(A1 ∩ A2 ) 6 P(A1 ). La formule se démontre par récurrence sur n, le théorème précédent est le cas n = 2.
En appliquant l’hypothèse de récurrence on a :
NE
P(A1 ∩ · · · ∩ An+1 ) = P(A1 ) × PA1 (A2 ) × PA1 ∩A2 (A3 ) × · · · × PA1 ∩···∩An−1 (An ∩ An+1 )
À retenir
AIG
Cette formule est utile lorsque les événements sont dans un ordre chronologique.
FExercice 24.6 Une urne contient n boules : b blanches et r rouges. Soit k ∈ J1; b + 1K. On tire des boules successivement
de cette urne sans remise. Quelle est la probabilité qu’une boule rouge apparaisse pour la première fois au k e tirage ?
Solution 24.6 Soit Bi l’événement « au i e tirage la boule est blanche (on définit de même Ri ), on demande :
FExercice 24.7 Une puce se déplace sur les trois sommets A, B C d’un triangle en partant de A. À chaque instant elle fait
un saut : si elle est en A alors elle va en B, si elle est en B alors elle a une chance sur deux d’aller en A et une chance sur
NT
deux d’aller en C, si elle est en C elle y reste.
1/ Montrer qu’on ne peut arriver en C qu’à des instants pairs.
2/ Quelle est la probabilité que la puce arrive en C pour la première fois à l’instant 2n ?
Solution 24.7
1/ Pour arriver en C la puce doit venir de B (un saut), pour être en B la puce doit venir de A et pour arriver en A la
puce doit venir de B, donc avant d’arriver en C la puce fait un certain nombre d’aller-retours en A et B, ce qui
donne un instant impair pour être en B et donc pair pour être en C.
2/ Soit Ak l’événement « la puce est en A à l’instant k » et Bk l’événement « la puce est en B à l’instant k », on cherche
donc P(B1 ∩ A2 ∩ · · · ∩ B2n−1 ∩ C2n ), d’après la formule des probabilités composées, c’est :
P(B1 ∩ A2 ∩ · · · ∩ B2n−1 ) = P(B1 ) × PB1 (A2 ) × PB1 ∩A2 (B3 ) × · · · × PB1 ∩A2 ∩···∩B2n−1 (C2n )
MO
¡ 1 ¢n 1
ce qui donne 2 = 2n .
FExercice 24.8 Le fonctionnement d’un appareil est régi par la règle suivante :
– s’il fonctionne à l’instant t n alors il a la probabilité a ∈]0; 1[ de fonctionner à l’instant t n+1 ;
– s’il est en panne à l’instant t n alors il a la probabilité b ∈]0; 1[ d’être en panne à l’instant t n+1 .
NE
Il est en état de marche à l’instant 0. Déterminer la probabilité p n qu’il soit en état de marche à l’instant t n .
Solution 24.8 Soit Mn l’événement correspondant, alors (Mn , Mcn ) est un système complet d’événements donc
p n+1 = P(Mn )PMn (Mn+1 ) + P(Mcn )PMcn (Mn+1 ) = p n a + (1 − p n )(1 − b) = (a + b − 1)p n + 1 − b, on a une suite arithmético-
1−b
géométrique, une solution constante est ` = 2−a−b et la suite (p n − `) est géométrique de raison a + b − 1, d’où
n (1−a)
p n = (a + b − 1) (p 0 − `) + ` avec p 0 = 1, ce qui donne p n = 1−b+(a+b−1)
n
2−a−b . On voit que lorsque |a + b − 1| < 1,
1−b
cette suite tend vers 2−a−b .
Remarque 24.6 – Lorsque le système complet comporte peu d’événements, on peut illustrer la formule des
probabilités totales par un arbre pondéré, mais la justification est l’application de la formule des probabilités
totales.
AIG
)
P A 1 (B B
A1
1) PA (B c
P( A 1 ) Bc
)
P( A P A 2 (B B
2)
A2
PA (B c
2 ) Bc
4) Formule de Bayes
Soient A et B deux événements de probabilité non nulle de l’espace probabilisé (Ω, P), imaginons que
l’on sache calculer la probabilité conditionnelle PA (B) et que l’on souhaite calculer PB (A). On a :
NT
P(A ∩ B) P(A)PA (B)
PB (A) = =
P(B) P(B)
Cela peut-être utile lorsqu’il y a une chronologie, (A antérieure à B) et que l’on cherche à « remonter le temps ».
Dans le cas le plus général, on utilise la formule des probabilités totales pour exprimer P(B) :
P
k=1
Remarque 24.7 – En particulier, lorsque le système est réduit à deux événements (A, Ac ) (de probabilité non
nulle), et si P(B) 6= 0, alors PB (A) = P(A)PAP(A)P A (B)
(B)+P(Ac )P c (B) . A
FExercice 24.9 On a six urnes numérotées de 1 à 6, l’urne k contient k boules blanches et 6 − k boules noires. On lance
un dé non truqué, si la face k sort alors on tire une boule de l’urne k. La boule tirée est blanche, quelle est la probabilité
d’avoir fait un 6 ?
Solution 24.9 On a un système complet (D1 , . . . , D6 ) (résultat du jet de dé), soit B l’événement « obtenir une boule
blanche », alors on demande PB (D6 ), d’après la formule de Bayes, on a :
P(D6 )PD6 (B) P(D6 )PD6 (B)
PB (D6 ) = P(B) = P6 = P61/6 = 21
6
= 27 .
k
P(Dk )PDk (B) 36
k=1 k=1
IV INDÉPENDANCE
NE
Définition 24.7
On dit que deux événements A et B d’un espace probabilisé (Ω, P) sont indépendants lorsque :
P(A ∩ B) = P(A) × P(B).
Remarque 24.8 –
– La relation est symétrique.
– Si P(A) = 0 alors A est indépendant avec tout autre événement B.
À retenir
AIG
Lorsque P(A) 6= 0, alors A et B sont indépendants si et seulement si PA (B) = P(B).
ZExemple : On lance un dé non truqué, soit A :« obtenir un chiffre pair » et B : « obtenir un chiffre inférieur
ou égale à 4 ». On P(A) = 21 , P(B) = 32 , P(A ∩ B) = 13 = P(A)P(B), ces deux événements sont indépendants. Soit
C :« obtenir un chiffre inférieur ou égale à 3 », on a P(C) = 12 et P(A ∩ C) = 16 6= P(A)P(C), A et C ne sont pas
indépendants.
Attention !
On veillera à ne pas confondre indépendance de deux événements (qui dépend de la probabilité) et l’incompatibilité
de deux événements (qui ne dépend pas de la probabilité).
Théorème 24.10
NT
Si A est B sont deux événements indépendants de (Ω, P) alors :
• A et Bc sont indépendants ;
• Ac et B sont indépendants ;
• Ac et Bc sont indépendants.
Preuve : P(A) = P(A ∩ B) + P(A ∩ Bc ) = P(A)P(B) + P(A ∩ Bc ) d’où P(A ∩ Bc ) = P(A)[1 − P(B)] = P(A)P(Bc ). Les deux autres
résultats en découlent.
Définition 24.8
MO
2n − n − 1. Il découle de la définition que des événements mutuellement indépendants sont deux à deux
indépendants.
Attention !
Des événements deux à deux indépendants ne sont pas nécessairement mutuellement indépendants comme le
NE
montre l’exemple suivant.
ZExemple : On lance deux dés parfaits, on note A1 : « le premier dé amène un nombre pair », A2 : « le deuxième
dé amène un nombre pair » et A3 : « la somme des nombres obtenus est paire ». On a P(A1 ) = 12 , P(A2 ) = 12 ,
P(A3 ) = 18 1 1 1 1 1
36 = 2 , P(A1 ∩ A2 ) = 4 , P(A1 ∩ A3 ) = 4 , P(A2 ∩ A3 ) = 4 , mais P(A1 ∩ A2 ∩ A3 ) = P(A1 ∩ A2 ) = 4 : les
événements sont deux à deux indépendants mais pas mutuellement indépendants.
FExercice 24.10 Soient A1 , . . . , An des événements mutuellement indépendants dans (Ω, P).
1/ Montrer que les événements B1 , . . . , Bn où Bi = Ai ou Aci , sont mutuellement indépendants.
2/ Soit p ∈ J1; n − 1K, montrer que B1 ∪ · · · ∪ Bp et Bp+1 ∩ · · · ∪ Bn sont indépendants.
Solution 24.10
1/ Il suffit de traiter le cas où un seul des Bi est égal Aci (on peut supposer que c’est Bn ), si J est une partie de
AIG
J1; n − 1K, alors on sait que A j et An sont indépendants, donc A j et Acn aussi.
T T
j ∈J j ∈J
Déterminants
Sommaire
AIG
I Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
1) Décomposition des permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
2) Signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
II Applications n-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2) Développement suivant une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
III Déterminant dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
1) Formes n-linéaires en dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
2) Déterminants de n vecteurs dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . 243
3) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
IV Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
2) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
NT
V Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
2) Propriétés du déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . 246
3) Développement suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . 246
4) Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
VI Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
1) Géométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
2) Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
3) Orientation d’un espace vectoriel réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
I LE GROUPE SYMÉTRIQUE
MO
Définition 25.1
Soit En = J1; n K, avec n ∈ N∗ , on note Sn l’ensemble des permutations de En , c’est à dire l’ensemble
des bijections de En vers lui-même. On rappelle que (Sn , ◦) est un groupe de cardinal n! (non abélien
dès que n > 3), ce groupe est appelé groupe symétrique de type n.
NE
tels que σ(i 1 ) = i 2 , . . . , σ(i k−1 ) = i k , σ(i k ) = i 1 , les autres entiers de En étant fixes par σ. Dans ce cas, on
notera σ = (i 1 i 2 . . . i k ). Le nombre k est appelé longueur du cycle, et un cycle de longueur 2 est appelé
une transposition. L’ensemble {i 1 , . . . , i k } est appelé support du cycle σ. On convient que l’identité
de En est un cycle de longueur nulle et à support vide.
FExercice 25.1
1/ Décrire tous les cycles de S3 .
2/ Combien y-a-t’il de cycles de longueur k dans Sn ?
3/ Si σ est un cycle dans Sn , déterminer σ−1 .
4/ Si σ est un cycle de longueur k dans Sn , montrer que σk = id et que σi 6= id si i < k. En déduire que si a est un
élément du support de σ, alors σ = (a σ(a) . . . σk−1 (a)).
AIG
Théorème 25.1 (admis)
Toute permutation de En est un produit (pour la loi ◦) de cycles à supports disjoints, cette décompo-
sition est unique à l’ordre près.
ZExemples : µ ¶
1 2 3 4 5 6
– Soit σ = , alors σ = (1 3) ◦ (4 6 5).
3 2 1 6 4 5
– Montrer que deux cycles à supports disjoints commutent. Et si les supports sont non disjoints ?
Théorème 25.2
Toute permutation est un produit de transpositions.
Preuve : Il suffit de le prouver pour un cycle, soit σ = (i 1 . . . i k ), il est facile de vérifier que σ = (i 1 i 2 )(i 2 i 3 ) · · · (i k−1 i k ). On
NT
remarquera que les supports des transpositions ne sont pas disjoints deux à deux, et que le nombre de transpositions
dans la décomposition est égal à k − 1.
2) Signature
σ(i )−σ( j )
On peut vérifier que ε(σ) =
Q
i−j .
16i < j 6n
ZExemple : Signature d’une transposition, si σ = (a b) avec a < b ∈ En , alors Iσ = 2(b − a) − 1, donc ε(σ) = −1.
NE
∀ σ, σ0 ∈ Sn , ε(σ ◦ σ0 ) = ε(σ) × ε(σ0 ).
Application – Calcul de la signature d’une permutation. Pour calculer la signature d’une permutation σ, il suffit de
connaître sa décomposition en produit de transpositions : σ = τ1 ◦ . . . ◦ τk , on a alors ε(σ) = ε(τ1 ) × . . . ε(τk ) = (−1)k .
ZExemples :
– Calculer la signature d’un cycle de longueur p > 1.
µ ¶
1 2 3 4 5 6 7 8 9 10
– Calculer la signature de σ = .
3 10 4 6 9 7 1 5 8 2
II APPLICATIONS N-LINÉAIRES
AIG
1) Définition
Définition 25.5
Soient E et F deux K-espaces vectoriels et f : En → F une application. On dit que f est n-linéaire
lorsque f est linéaire par rapport à chacune de ses variables (les autres étant fixes), c’est à dire :
∀ x 1 , . . . , x n ∈ E, ∀ i ∈ J1; n K, l’application f i : E → F définie par :
ZExemples :
– L’application f : R2 × R2 → R définie par f (u, v) = u 1 v 1 + u 2 v 2 (avec u = (u 1 , u 2 , ) et v = (v 1 , v 2 )), est
bilinéaire, plus précisément, c’est une forme bilinéaire sur R2 .
– L’application f : R2 × R2 → R définie par f (u, v) = u 1 v 2 − u 2 v 1 (avec u = (u 1 , u 2 , ) et v = (v 1 , v 2 )), est une
NT
forme bilinéaire sur R2 .
– Soit E = Mn (K), l’application f : E3 → E définie par f (A, B, C) = A × B × C, est trilinéaire.
Rb
– Soit E = C 0 ([a; b], R). L’application f : E2 → R définie par f (u, v) = a u(t )v(t ) d t , est une forme bili-
néaire sur E.
Définition 25.6
Soit f : En → F une application n-linéaire, on dit que f est :
– symétrique : lorsque ∀ σ ∈ Sn , ∀ x 1 , . . . , x n ∈ E : f (x σ(1) , . . . , x σ(n) ) = f (x 1 , . . . , x n ), autrement dit,
changer l’ordre des vecteurs ne change pas le résultat.
– antisymétrique : lorsque ∀ σ ∈ Sn , ∀ x 1 , . . . , x n ∈ E : f (x σ(1) , . . . , x σ(n) ) = ε(σ). f (x 1 , . . . , x n ), autre-
ment dit, échanger deux vecteurs change le signe du résultat.
MO
Théorème 25.5
Il y a équivalence entre antisymétrique et alternée.
NE
j -ième), ce qui donne f τ = − f = ε(τ). f , mais comme toute permutation est un produit de transpositions, on en déduit
que ∀ σ ∈ Sn , f σ = ε(σ). f c’est à dire f est antisymétrique.
Si f est antisymétrique : supposons x i = x j avec i 6= j , alors soit τ = (i j ), on a f (x 1 , . . . , x n ) = f τ (x 1 , . . . , x n ) =
− f (x 1 , . . . , x n ), donc f (x 1 , . . . , x n ) = 0, i.e. f est alternée.
Théorème 25.6
L’ensemble des applications n-linéaires de En vers F est un K-espace vectoriel (s.e.v. de F (En , F)).
L’ensemble des applications n-linéaires alternées de En vers F est un K-espace vectoriel (s.e.v. de
F (En , F)).
AIG
2) Développement suivant une base
Soit E de dimension p, soit B = (e 1 , . . . , e p ) une base de E, soit S = (x 1 , . . . , x n ) un système de n vecteurs
de E et soit A = P B,S ∈ Mp,n (K) la matrice de passage de B à S. Soit u = f (x 1 , . . . , x n ), en développant par
rapport à la première variable, on obtient :
X
u= a j 1 ,1 f (e j 1 , x 2 , . . . , x n )
16 j 1 6 p
Puis on développe chacun de ces termes par rapport à la deuxième variable x 2 , ce qui donne
X
u= a j 1 ,1 a j 2 ,2 f (e j 1 , e j 2 , x 3 , . . . , x n )
16 j 1 , j 2 6 p
X
f (x 1 , . . . , x n ) = a j 1 ,1 · · · a j n ,n f (e j 1 , . . . , e j n )
16 j 1 ,..., j n 6n
comme f est alternée, dès que deux indices sont égaux, le terme correspondant est nul, il reste donc :
X
f (x 1 , . . . , x n ) = a j 1 ,1 · · · a j n ,n f (e j 1 , . . . , e j n )
16 j 1 ,..., j n 6n,distincts
Lorsque les indices sont distincts deux à deux, on a forcément, j 1 , . . . , j n = J1; n K, en posant σ(k) = j k
© ª
Donc si f est une forme n-linéaire alternée sur E, alors il existe un scalaire α tel que :
NE
σ∈Sn
Avec α = f (e 1 , . . . , e n ) (ce qui détermine entièrement f ), et les scalaires a i , j étant les coefficients de la matrice
de la famille (x 1 , . . . , x n ) dans la base B.
Si σ parcourt Sn , alors σ−1 aussi, on peut donc écrire :
σ−1 ∈Sn
AIG
Théorème 25.7
ε(σ)a 1,σ(1) . . . a n,σ(n) , alors f 1 est une forme n-linéaire
P
On pose pour x 1 , . . . , x n ∈ E, f 1 (x 1 , . . . , x n ) =
σ∈Sn
alternée sur E et f 1 (e 1 , . . . , e n ) = 1 (en particulier f 1 est non nulle).
Preuve : On note c i la forme linéaire qui à tout vecteur x de E associe sa coordonnée sur e i .
On note alors f (x 1 , . . . , x n ) = c 1 (x 1 )c 2 (x 2 ) · · · c n (x n ), on vérifie que f ainsi définie, est n-linéaire de En vers K. On
ε(σ) f (x σ(1) , . . . , x σ(n) ), on sait que g est n-linéaire (combinaison linéaire de formes n-linéaires),
P
pose g (x 1 , . . . , x n ) =
σ∈Sn
soit τ une transposition de En , alors : g (x τ(1) , . . . , x τ(n) ) = ε(σ) f (x τ(σ(1)) , . . . , x τ(σ(n)) ), on effectue un changement
P
σ∈Sn
d’indice en posant σ0 = τ ◦ σ (σ0 parcourt Sn une et seule fois lorsque σ parcourt Sn ), on a ε(σ0 ) = −ε(σ), d’où :
ε(σ0 ) f (x σ0 (1) , . . . , x σ0 (n) ) = −g (x 1 , . . . , x n ), donc g est alternée.
P
g (x τ(1) , . . . , x τ(n) ) = −
σ0 ∈Sn
n
P
En revenant à la définition de f , et en posant x j = a i j e i , on a :
i =1
NT
ε(σ)a 1σ(1) × · · · × a nσ(n) = f 1 (x 1 , . . . , x n )
X
g (x 1 , . . . , x n ) =
σ∈Sn
Lorsqu’on calcule f 1 (e 1 , . . . , e n ), tous les a i j sont nuls sauf ceux de la diagonale qui valent 1, il reste seulement le terme
correspondant à l’identité de En , ce qui donne f 1 (e 1 , . . . , e n ) = a 11 × · · · × a nn = 1.
Théorème 25.8
Si dim(E) = n, alors l’ensemble des formes n-linéaires alternées sur E est un K-espace vectoriel de
dimension 1 (droite vectorielle), dont une base est l’application f 1 ci-dessus.
Preuve : D’après le début de ce paragraphe, toute forme f , n-linéaire alternée sur E, est du type f = α f 1 avec α ∈ K.
MO
Définition 25.7
L’application f 1 définie ci-dessus est appelée déterminant dans la base B, elle est notée detB .
C’est donc une forme n-linéaire alternée sur E, qui constitue une base de l’ensemble des formes
n-linéaires alternées sur E, plus précisément, c’est l’unique forme n-linéaire alternée sur E qui vérifie :
detB (e 1 , . . . , e n ) = 1.
NE
ε(σ)a 1,σ(1) . . . a n,σ(n)
X
det(x 1 , . . . , x n ) =
B σ∈Sn
ZExemples :
– Soit E = K2 , B = (i , j ), la base canonique, soient u = (u 1 , u 2 ), v = (v 1 , v 2 ) ∈ E, alors detB (u, v) =
a 1,1 a 2,2 − a 1,2 a 2,1 = u 1 v 2 − u 2 v 1 .
– Soit E = K3 , B = (i , j , k), la base canonique, soient u = (u 1 , u 2 , u 3 ), v = (v 1 , v 2 , v 3 ) et w = (w 1 , w 2 , w 3 ) ∈
E, alors detB (u, v, w) = u 1 v 2 w 3 − u 2 v 1 w 3 − u 3 v 2 w 1 − u 1 v 3 w 2 + u 3 v 1 w 2 + u 2 v 3 w 1 .
– Si dim(E) = n, B = (e 1 , . . . , e n ) une base de E, (x 1 , . . . , x n ) une famille de E telle que la matrice A du
système dans la base B soit triangulaire supérieure, alors : detB (x 1 , . . . , x n ) = a 1,1 . . . a n,n , produit des
coefficients diagonaux de la matrice.
En effet : pour que a 1,σ(1) . . . a n,σ(n) ait une chance d’être non nul, il faut que 1 6 σ(1), . . . , n 6 σ(n), ce
AIG
qui ne donne qu’une seule possibilité : σ = id.
3) Propriétés du déterminant
Soit E un K-espace vectoriel de dimension n et B = (e 1 ; . . . , e n ) une base de E.
– L’application detB est une forme n-linéaire alternée , donc :
• elle est linéaire par rapport à chaque variable, par exemple :
detB (αx 1 + βx 10 , x 2 , . . . , x n ) = α detB (x 1 , x 2 , . . . , x n ) + β detB (x 10 , x 2 , . . . , x n ).
• si on échange deux vecteurs dans le déterminant, alors le résultat change de signe. Par exemple :
detB (x 2 , x 1 , x 3 , . . . , x n ) = − detB (x 1 , x 2 , x 3 , . . . , x n ). Plus généralement :
Preuve : Soit B0 = (x 1 , . . . , x n ), si B0 est une base de E, alors l’ensemble des formes n-linéaires alternées sur
E est une droite engendrée par detB0 et detB = detB (B0 ). detB0 , or detB n’est pas l’application nulle, donc
detB (B0 ) 6= 0.
Réciproquement, si detB (B0 ) 6= 0 : alors la famille B0 est libre, car si elle était liée, l’un de ses vecteurs serait
combinaison linéaire des autres et donc le déterminant dans la base B serait nul, ce qui est absurde. Donc B0
est une famille libre de n vecteurs en dimension n, c’est donc une base de E.
1) Définition
Soit E un K-espace vectoriel, soient B = (e 1 , . . . , e n ) et B0 = (e 10 , . . . , e n0 ) deux bases de E, et soit u ∈ L (E),
on note f la forme n-linéaire alternée définie par :
f (x 1 , . . . , x n ) = det(u(x 1 ), . . . , u(x n ))
B
On sait qu’il existe un scalaire α tel que f = α detB0 , avec α = f (e 10 , . . . , e n0 ), or detB = detB (B0 ) detB0 , d’où
α = detB (B0 ) detB0 (u(e 10 ), . . . , u(e n0 )), En calculant f (e 1 , . . . , e n ), on obtient :
NE
det(u(e 1 ), . . . , u(e n )) = α det(B) = det(u(e 10 ), . . . , u(e n0 ))
B B0 B0
Définition 25.8
Soit E un K-espace vectoriel et soit B = (e 1 , . . . , e n ) une base de E, soit u ∈ L (E), on appelle dé-
terminant de u le scalaire, noté det(u) et défini par : det(u) = detB (u(e 1 ), . . . , u(e n )). Ce scalaire est
indépendant de la base B choisie.
ZExemple : Soit u ∈ L (R2 ) défini par u(x, y) = (x + y; 2x − y), notons B = (i , j ) la base canonique de R2 , alors
AIG
det(u) = detB (i + 2 j , i − j ) = detB (3i , i − j ) = detB (3i , − j ) = −3 detB (i , j ) = −3.
Expression du déterminant : Soit u ∈ L (E) et soit B = (e 1 , . . . , e n ) une base de E, la matrice du système
(u(e 1 ), . . . , u(e n )) est en fait la matrice de u dans la base B, posons A = (a i , j ) = mat(u), alors on peut écrire :
B
2) Propriétés du déterminant
– Soit u ∈ L (E), soit B une base de E, alors :
Preuve : L’application f définie par f (x 1 , . . . , x n ) = detB (u(x 1 ), . . . , u(x n )) est n-linéaire alternée, donc il existe
NT
un scalaire α tel que f = α detB , ce scalaire vaut α = f (e 1 , . . . , e n ) (en posant B = (e 1 , . . . , e n )), donc α = det(u)
d’après la définition.
– Soient u, v ∈ L (E), on a det(u ◦ v) = det(v ◦ u) = det(u) det(v) .
Preuve : Soit B = (e 1 , . . . , e n ) une base de E, alors :
det(u ◦ v) = det(u(v(e 1 )), . . . , u(v(e n ))) = det(u) det(v(e 1 ), . . . , v(e n )) = det(u) det(v),
B B
E.
1) Définition
Définition 25.9
Soit A = (a i , j ) ∈ Mn (K), et soit u l’endomorphisme de Kn canoniquement associé à A, on appelle
déterminant de A le déterminant de u et on pose :
Expression du déterminant : A est la matrice de u dans la base canonique de Kn , donc d’après le paragraphe
précédent, on a :
ε(σ)a 1,σ(1) · · · a n,σ(n)
X
det(A) =
NE
σ∈Sn
¯ ¯
¯ a 1,1 ··· a 1,n ¯¯
¯ . .. ¯
¯
Notation : on écrit : det(A) = ¯ .. . ¯¯
¯
¯a ··· a n,n ¯
n,1
ZExemples : ¯ ¯
¯a b ¯¯
– Cas d’une matrice carrée de taille 2 : ¯¯ = ad − bc.
c d¯
n
Q
– Cas d’une matrice triangulaire : si A est triangulaire, alors det(A) = a i ,i (produit des éléments
i =1
diagonaux).
AIG
2) Propriétés du déterminant d’une matrice carrée
– Une matrice carrée A et sa transposée, ont le même déterminant. On en déduit que si B est la base
canonique de Kn , alors det(A) = detB (C1 (A), . . . , Cn (A)) = detB (L1 (A), . . . , Ln (A)).
ε(σ)a 1,σ(1) · · · a n,σ(n) = ε(σ)a σ(1),1 · · · a σ(n),n = det(t A).
P P
Preuve : En effet, on a det(A) =
σ∈Sn σ∈Sn
– Soit u ∈ L (E), et soit B une base quelconque de E, si mat(u) = A ∈ Mn (K), alors det(u) = det(A). On en
B
déduit en particulier que si P ∈ GLn (K), alors det(P −1 × A × P) = det(A).
– Si A, B ∈ Mn (K), alors det(A × B) = det(A) det(B), en particulier, on a det(A × B) = det(B × A).
– Une matrice carrée est inversible ssi son déterminant est non nul, si c’est le cas, alors det(A−1 ) =
det(A)−1 .
– Utilisation de la méthode de Gauss : on utilise celle-ci pour se ramener au calcul du déterminant d’une
matrice triangulaire, plus précisément :
• L’opération Li ↔ L j , change le signe du déterminant (idem avec les colonnes).
NT
• L’opération Li ← αLi (α 6= 0), multiplie le déterminant par α (idem avec les colonnes).
• L’opération Li ← Li + αL j , ne change pas le déterminant (idem avec les colonnes).
1 1 1
¯ ¯ ¯ ¯ ¯ ¯
¯1 1 1 ¯
¯ L3 ←L3 −L1 ¯1 1 1 ¯ L3 ←L3 −L2 ¯1 1 1 ¯
¯ ¯ ¯ ¯
C1 ↔C3 ¯
det(A) = − ¯0 2 −1¯
¯ ¯ = − ¯0 2 −1¯
¯ ¯ = − ¯0 2 −1¯¯ = −4.
¯
¯1 3 2 ¯ ¯0 2 1 ¯ ¯0 0 2 ¯
Définition 25.10
Le scalaire γi , j (A) est appelé cofacteur (i j ) de la matrice A, c’est le déterminant de la matrice A dans
NE
laquelle la colonne j a été remplacée par le i -ième vecteur de la base canonique de Kn .
Calcul de γi , j (A) :
¯ ¯
¯ a 1,1 · · · a 1, j −1 0 a 1, j +1 · · · a 1,n ¯
¯ .. .. .. .. .. ¯
¯ ¯
¯ . . . . . ¯
¯ ¯
¯a
¯ i −1,1 · · · a i −1, j −1 0 a i −1, j +1 · · · a i −1,n ¯
¯
On a γi , j (A) = ¯ a i ,1 · · · a i , j −1 1 a i , j +1 · · · a i ,n ¯, on échange les colonnes C j +1 et C j , puis
¯ ¯
¯ ¯
¯a i +1,1 · · · a i +1, j −1 0 a i +1, j +1 · · · a i +1,n ¯
¯ .. .. .. .. .. ¯
¯ ¯
¯ . . . . . ¯
¯ ¯
¯ a · · · a n, j −1 0 a n, j +1 · · · a n,n ¯
n,1
AIG
C j +1 et C j +2 , . . . etc, pour amener la colonne j en dernière position, sans changer l’ordre sur les autres
colonnes, le déterminant est multiplié par (−1)n− j . De le même façon, on amène la ligne i en dernière
position sans changer l’ordre des autres lignes, le déterminant est multiplié par (−1)n−i . On obtient alors :
¯ ¯
¯ a 1,1 ··· a 1, j −1 a 1, j +1 ··· a 1,n 0¯¯
¯ .. .. .. .. .. ¯
¯
¯ . . . . . ¯¯
¯
¯a ··· a i −1, j −1 a i −1, j +1 ··· a i −1,n 0¯¯
¯ i −1,1
i+j ¯
γi , j (A) = (−1) ¯a i +1,1 ··· a i +1, j −1 a i +1, j +1 ··· a i +1,n 0¯ ,
¯
¯ .. .. .. .. .. ¯
¯ ¯
¯ . . . . .¯
¯ ¯
¯ a n,1 ··· a n, j −1 a n, j +1 ··· a n,n 0¯¯
¯
¯ a ··· a i , j −1 a i , j +1 ··· a i ,n 1¯
i ,1
on remarque que lorsque σ(n) 6= n, alors b σ(n),n = 0, on peut donc ne retenir que les permutations ayant n
comme point fixe, c’est à dire en fait les éléments de Sn−1 , et comme b n,n = 1, on a alors :
Définition 25.11
Soit A ∈ Mn (K), on appelle mineur (i j ) de la matrice A, le déterminant ∆i , j (A) de la matrice Ai , j
MO
obtenue par suppression de ligne i et de la colonne j de A. Le lien entre cofacteur et mineur est :
γi , j (A) = (−1)i + j ∆i , j (A).
n
a i , j (−1)i + j ∆i , j (A).
X
det(A) =
i =1
Développement suivant la ligne j : comme une matrice A ∈ Mn (K) a le même déterminant que sa trans-
posée, développer det(A) suivant la ligne j revient à développer det(t A) suivant la colonne j , ce qui donne
n
NE
det(A) = (t A)i , j (−1)i + j ∆i , j (t A), mais ∆i , j (t A) = ∆ j ,i (A), ce qui donne finalement :
P
i =1
n
a j ,i (−1)i + j ∆ j ,i (A)
X
det(A) =
i =1
1 α0 · · · αn0
.. .. ..
Soit A = . . . , où α0 , . . . , αn ∈ K, soit Vn = det(A), alors on a le résultat suivant :
1 αn · · · αnn
(α j − αi )
Y
Vn =
06i < j 6n
AIG
Preuve : Si deux des scalaires sont égaux, le résultat est évident. Supposons les αi distincts deux à deux. On peut
vérifier que pour n = 2 le résultat est vrai. Supposons le vrai au rang n, et remplaçons dans Vn+1 la dernière ligne par
(1 X X 2 . . . X n+1 ), le déterminant obtenu en développant suivant la dernière ligne, est un polynôme P(X) de degré au plus
n
n +1, dont les racines sont α0 , . . . , αn , de plus son coefficient dominant est Vn , par conséquent on a P(X) = Vn (X −αi ),
Q
i =0
n
(αn+1 − αi ) = (α j − αi ).
Q Q
d’où Vn+1 = Vn
i =0 06i < j 6n+1
4) Comatrice
Définition 25.12
Soit A ∈ Mn (K), on appelle comatrice de A la matrice de Mn (K) dont les coefficients sont les cofacteurs
γi , j (A). Notation : Com(A) = (γi , j (A))16i , j 6n .
NT
µ ¶ µ ¶
a b d −c
ZExemple : Si A = , alors Com(A)) = .
c d −b a
n
Preuve : Soit B = A × t Com(A), alors b i , j = a i ,k (−1) j +k ∆ j k (A), qui est le déterminant de la matrice obtenue en
P
k=1
remplaçant dans A, la ligne j par la ligne i , d’où b i , j = det(A)δi , j .
n
Posons C = t Com(A) × A, alors c i , j = a k, j (−1)i +k ∆k,i (A), qui est le déterminant de la matrice obtenue en rempla-
P
k=1
MO
1 t
A−1 = Com(A)
det(A)
VI APPLICATIONS
1) Géométrie
Soit E un espace de dimension n, muni d’un repère R = (O, B) avec B = (e 1 , . . . , e n ), soit H un hyperplan
passant par A(a 1 , . . . , a n ) et de direction un hyperplan vectoriel de base (u 1 , . . . , u n−1 ). On a alors :
1. VANDERMONDE Alexandre (1735 – 1796) : mathématicien français qui fut le premier à étudier les déterminants.
−−→
M(x 1 , . . . , x n ) ∈ H ⇐⇒ AM ∈ H
NE
−−→
⇐⇒ (u 1 , . . . , u n−1 , AM ) est liée
−−→
⇐⇒ det B(u 1 , . . . , u n−1 , AM ) = 0
¯ ¯
¯ a 11 · · · a 1n−1 x 1 − a 1 ¯
¯ . .. ..
¯ ¯
⇐⇒ ¯ .. ¯=0
¯
¯ . . ¯
¯a ··· a x −a ¯
n1 nn−1 n n
n+1
⇐⇒ (−1) ∆1n (x 1 − a n ) + · · · + (−1)n+n ∆nn (x n − a n ) = 0 (développement suivant la colonne n)
⇐⇒ α1 (x 1 − a 1 ) + · · · + αn (x n − a n ) = 0
⇐⇒ α1 x 1 + · · · + αn x n = d
AIG
on obtient ainsi une équation cartésienne de l’hyperplan affine H , on remarquera qu’une équation carté-
sienne de la direction H est α1 x 1 + · · · + αn x n = 0.
2) Systèmes linéaires
a 11 x 1 + . . . + a 1p x p = b 1
..
C’est un système de la forme (S) : . , où les scalaires x 1 , . . . , x p sont les
a n1 x 1 + . . . + a np x p = b n
inconnues.
Le système (S) peut s’interpréter de plusieurs façons :
– Interprétation géométrique : chaque équation de (S) peut être vue comme l’équation d’un hyperplan
de Kp (lorsque les coefficients ne sont pas tous nuls). Les solutions de (S) sont les coordonnées des
points de l’intersection de n hyperplans.
NT
x1 b1 a 11 · · · a 1n
. . . ..
– Sous forme matricielle : (S) ⇐⇒ AX = B où X = .. , B = .. , et A = .. . , A est la matrice
xp bn a n1 · · · a np
du système. Le rang de la matrice A est appelé le rng du système S, il peut être vu comme le nombre
maximal d’équations indépendantes du système.
– Sous forme linéaire : soit u ∈ L (Kp , Kn ) l’application linéaire canoniquement associée à A, soit x ∈ Kp
le vecteur de coordonnées (x 1 , . . . , x p ) dans la base canonique, et soit b le vecteur de Kn de coordonnées
(b 1 , . . . , b n ), on a alors (S) ⇐⇒ u(x) = b.
– Sous forme vectorielle : soient v 1 , . . . , v p les vecteurs colonnes de A, on a (S) ⇐⇒ x 1 v 1 + . . . + x p v p = b,
c’est une équation vectorielle dans Kn .
Rappel : structure de l’ensemble des solutions de l’équation linéaire u(x) = b :
Il y a des solutions si et seulement si b ∈ Im(u), si c’est le cas, et si x 0 ∈ Kp désigne une solution particulière,
MO
alors l’ensemble des solutions est x 0 + ker(u), où ker(u) est l’ensemble des solutions de l’équation homogène,
qui est un s.e.v de Kp de dimension p − rg(u). L’ensemble des solutions est donc un sous-espace affine de
direction ker(u).
2. CRAMER Gabriel (1704 – 1752) : mathématicien français qui s’est intéressé aux systèmes linéaires et à la théorie des détermi-
nants.
det(C1 , . . . , Ci −1 , B, Ci +1 , . . . , Cn )
NE
∀ i ∈ J1; n K , x i =
det(A)
(
ax + b y =u
ZExemple : Si ad − bc 6= 0, alors le système (S) : , possède une unique solution :
cx + d y =v
(
ud −vb
x = ad −bc
av−cu
y = ad −bc
AIG
alors P est une matrice inversible, donc det(P) 6= 0, on a alors soit det(P) > 0, soit det(P) < 0.
Définition 25.14
On dit que la base B est en relation avec la base B0 lorsque la matrice de passage a un déterminant
strictement positif, on note alors BR B0 .
ZExemple : Une base B = (e 1 , . . . , e n ) est en relation avec elle-même, mais pas avec B0 = (−e 1 , e 2 , . . . , e n ).
Théorème 25.10
La relation R est une relation d’équivalence, et il n’y a que deux classes d’équivalence.
−1
Preuve : La réflexivité est évidente. La symétrie découle de la formule PB,B0 = PB 0 ,B . La transitivité découle de la
formule : PB,B = PB,B × PB ,B .
NT
00 0 0 00
D’après l’exemple ci-dessus, il y a au moins deux classes d’équivalence, soit B00 une troisième base, supposons que
B ne soit pas en relation avec B00 , alors PB0 ,B00 = PB0 ,B × PB,B00 , d’où det(PB0 ,B00 ) = det(PB0 ,B ) × det(PB,B00 ) > 0, car
ces deux déterminants sont négatifs, par conséquent B00 R B0 , et donc la classe de B00 et égale à celle de B0 .
Définition 25.15
Orienter l’espace vectoriel E c’est choisir une des deux classes d’équivalence, que l’on appelle classe
des bases directes, l’autre étant alors appelée classe des bases indirectes. Il n’y a donc que deux
orientations possibles.
Remarque 25.1 – À retenir : le déterminant de la matrice de passage entre deux bases directes (ou deux bases
indirectes) est strictement positif. Le déterminant de la matrice de passage entre une base directe et une base
MO
−
e→
3
NE
−
e→
2
−
e→
1
AIG
H
F IGURE 25.1: Exemple en dimension 3 : (e 1 , e 2 ) est une base directe de H pour l’orientation induite par e 3 ,
l’espace étant « orienté avec la règle du tire-bouchon ».
NT
MO
Espaces euclidiens
AIG
Sommaire
I Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
2) Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
3) Bases orthonormales dans un euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
4) Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
5) Distance d’un vecteur à un s.e.v . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
6) Hyperplans affines dans un euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
II Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
2) Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
3) Espace vectoriel euclidien orienté - Produit mixte . . . . . . . . . . . . . . . . . . . . . . 261
III Endomorphismes orthogonaux en dimension 1 et 2 . . . . . . . . . . . . . . . . . . . . . . . 262
1) En dimension 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
NT
2) En dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
I PRODUIT SCALAIRE
1) Définitions
Définition 26.1
Un produit scalaire sur E est une forme bilinéaire sur E, généralement notée (.|.), qui à tout couple de
vecteurs (x, y) associe le réel (x|y), et qui vérifie :
– ∀ x, y ∈ E, (x|y) = (y|x) (symétrie).
MO
ZExemples :
n
– Produit scalaire canonique de Rn : (x|y) =
P
xi y i .
i =1
b
– E = C 0 ([a; b], R) et ∀ f , g ∈ E, ( f |g ) = a f (t )g (t ) d t (avec a < b).
R
x1 y 1 + x1 y 2 + x2 y 1 + x2 y 2 .
– E = Rn [X], soient a 0 , . . . , a n des réels distincts, on définit un produit scalaire sur E en posant :
n
X
NE
∀ P, Q ∈ E, (P|Q) = P(a k )Q(a k )
k=0
Preuve : ∀ λ ∈ R, (x + λy|x + λy) > 0, ce qui donne en développant : λ2 (y|y) + 2λ(x|y) + (x|x) > 0. Lorsque (y|y) 6= 0,
le discriminant du trinôme en λ doit être négatif ou nul (s’il était strictement positif il y aurait deux racines réelles
distinctes r 1 < r 2 et le trinôme serait strictement négatif dans l’intervalle ouvert ]r 1 ; r 2 [), ce qui donne l’inégalité.
Lorsque (y|y) = 0, alors y = 0 et l’inégalité est triviale.
AIG
∀ x, y ∈ E, (x|y)2 = (x|x)(y|y) ⇐⇒ (x, y) est liée.
1
Remarque 26.1 – Si x est non nul alors le vecteur kxk x est unitaire.
ZExemples :
– E = Rn , avec le produit scalaire canonique, l’inégalité de Cauchy-Schwarz s’écrit :
à !2 à !à ! s
n n n n
2 2
X X X X
xi y i 6 xi y i et kxk = x i2
i =1 i =1 i =1 i =1
Rb
– E = C 0 ([a; b], R) avec le produit scalaire : ( f |g ) = a f (t )g (t ) d t , l’inégalité de Cauchy-Schwarz s’écrit :
³R ´2 ³R ´ ³R ´ q
b
6 ab f 2 ab g 2 et k f k =
Rb
2
a f (t ) f g (t ) d t a f .
NE
• kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 ) (théorème de la médiane ou identité du parallélogramme).
• (x|y) = 14 kx + yk2 − kx − yk2 = 12 kx + yk2 − kxk2 − kyk2 = 12 kxk2 + kyk2 − kx + yk2 (identités de
¡ ¢ ¡ ¢ ¡ ¢
polarisation).
2) Orthogonalité
Définition 26.4
Soient x, y ∈ E, et soient F, G deux s.e.v de E, on dit que :
• x et y sont orthogonaux lorsque (x|y) = 0.
• F et G sont orthogonaux lorsque ∀ x ∈ F, ∀ y ∈ G, (x|y) = 0.
AIG
On appelle orthogonal de A (une partie de E), l’ensemble des vecteurs de E orthogonaux à tous les
vecteurs de A, notation : A⊥ = {x ∈ E / ∀ y ∈ A, (x|y) = 0}. On remarquera que dire que F et G sont
orthogonaux équivaut à F ⊂ G⊥ , ou encore G ⊂ F⊥ .
Remarque 26.2 :
– Le seul vecteur orthogonal à tous les autres est le vecteur nul, i.e. E⊥ = {0}, car le produit scalaire est
défini.
– Deux vecteurs non nuls sont orthogonaux si et seulement si leur écart angulaire vaut π2 .
FExercice 26.2 Si A est une partie de E, montrer que A⊥ est un sev de E.
Preuve : Pour y ∈ E, on pose f y : E → R définie par f y (x) = (x|y), alors f y est une forme linéaire sur E, et il est facile de
voir que F⊥ = ker( f y ), ce qui prouve que F⊥ est un s.e.v de E. Si x ∈ F ∩ F⊥ , alors on doit avoir (x|x) = 0, d’où x = 0.
T
y∈F
Propriétés :
– Si A et B sont deux parties de E telles que A ⊂ B, alors B⊥ ⊂ A⊥ .
– Si A est une partie de E, alors A ⊂ (A⊥ )⊥ .
– Si F et G sont deux sev de E, alors (F + G)⊥ = F⊥ ∩ G⊥ .
MO
Théorème 26.6
Si E est un espace euclidien de dimension n, et si F est un s.e.v de E de dimension p, alors dim(F⊥ ) =
n − p, on a donc :
E = F ⊕ F⊥ .
Attention !
R1
Ce théorème est faux en dimension ¤infinie. Par exemple dans E = R[X] avec le produit scalaire (P | Q) = 0 P(t )Q(t ) d t ,
l’orthogonal de F = Vect X, X 2 , . . . est réduit au polynôme nul alors que F 6= E.
£
Quelques conséquences :
– (F⊥ )⊥ = F.
– (F ∩ G)⊥ = F⊥ + G⊥ .
NE
Théorème 26.7 (représentation des formes linéaires sur E)
Soit E un euclidien et f : E → R une forme linéaire, alors il existe un unique vecteur a ∈ E tel que
∀ x ∈ E, f (x) = (a|x).
Preuve : Pour l’existence : si f est nulle alors on peut prendre a = 0. Si f est non nulle, alors ker( f ) est un hyperplan de
λ
E, donc ker( f )⊥ = Vect [u] est une droite vectorielle. Posons f (u) = λ et prenons a = kuk 2 u. Il est facile de vérifier que
AIG
Définition 26.5
Une famille (x 1 , . . . , x p ) de E est dite orthonormale lorsque ∀ i , j ∈ J1; p K , (e i |e j ) = δi j . Cette famille
est dite orthogonale lorsque ∀ i , j ∈ J1; p K , i 6= j =⇒ (e i |e j ) = 0.
Théorème 26.8
Une famille orthogonale ne contenant pas le vecteur nul est libre. En particulier, une famille ortho-
normale est libre.
p
λk e k = 0, alors soit i ∈ J1; p K, on
P
Preuve : Soit (e 1 , . . . , e p ) une famille orthogonale ne contenant pas le vecteur nul, si
k=1
p p
λk e k ) = λk (e i |e k ) = λi ke i k2 = 0, ce qui entraîne λi = 0.
P P
a (e i |
NT
k=1 k=1
Cas particulier
Si E est un euclidien de dimension n, alors une famille orthonormale de n vecteurs est une base de E, on
dit que l’on a une base orthonormale (b.o.n en abrégé). Par exemple, la base canonique que Rn est une base
orthonormale pour le produit scalaire canonique.
Théorème 26.9
p p
e i k2 = ke i k2 .
P P
Si (e 1 , . . . , e p ) est une famille orthogonale, alors : k
k=1 i =1
p p p
e i k2 = ke i k2 .
P P P
Preuve : En effet, on a k (e i |e j ) =
MO
i =1 i , j =1 i =1
n n
Preuve : Soit CoordB (x) = (λ1 , . . . , λn ), on a (x|e k ) = ( λi e i |e k ) = λi (e i |e k ) = λk . Pour les deux autres points, il suffit
P P
i =1 i =1
de développer le produit scalaire.
Attention !
Le théorème ci-dessus est fondamental et démontre l’interêt des b.o.n. dans les espaces euclidiens.
NE
Théorème 26.11
Dans un espace euclidien, il existe toujours des bases orthonormales.
e1
Preuve : Par récurrence sur n = dim(E) : pour n = 1, on a E = Vect [e 1 ], une b.o.n de E est (e 10 ) avec e 10 = ke 1 k .
Supposons le théorème vrai au rang n − 1 (n > 1), et soit e 1 un vecteur unitaire de E, soit F = Vect [e 1 ]⊥ , alors F est
un s.e.v de dimension n − 1, soit (e 2 , . . . , e n ) une b.o.n de F, il est facile de voir que (e 1 , e 2 , . . . , e n ) est une b.o.n de E.
4) Projections orthogonales
AIG
Définition 26.6
Soit p ∈ L (E) une projection (p ◦ p = p), on dit que p est une projection orthogonale lorsque ker(p) =
ker(p − id)⊥ . Si F est un s.e.v de E, la projection orthogonale sur F, notée p F , est la projection sur F
parallèlement à F⊥ .
n
Preuve : Soit (e p+1 , . . . , e n ) une b.o.n de F⊥ , alors B = (e 1 , . . . , e n ) est une b.o.n de E, donc x =
P
(x|e i )e i , ce qui donne
i =1
NT
p n
(x|e i )e i , la première somme désigne un vecteur de F, et la seconde un vecteur de F⊥ , donc
P P
x= (x|e i )e i +
i =1 i =p+1
p
P
p F (x) = (x|e i )e i .
i =1
Remarque 26.4 – On peut en déduire que : si E est un espace préhilbertien réel, et si F est un sev de E
p
de dimension finie, alors E = F ⊕ F⊥ , car si (e 1 , . . . , e p ) est une b.o.n de F, alors le vecteur x − (x|e i )e i est dans
P
i =1
F⊥ .
u
ZExemple : Si D = Vect [u] est une droite vectorielle, alors (e 1 = kuk ) est une b.o.n de D, donc ∀ x ∈ E, p D (x) =
(x|u)
(x|e 1 )e 1 , c’est à dire : p D (x) = kuk2
.u.
MO
Remarque 26.5 – Si (e 1 , . . . , e n ) une base de E, alors la famille (v 1 , . . . , v n ) obtenue par la méthode Schmidt est
une b.o.n de E.
NE
FExercice 26.3 Soit E = R3 , muni du produit scalaire canonique, on pose v 1 = (1, 1, 0), v 2 = (1, 0, 1) et v 3 = (0, 1, 1).
Appliquer la méthode de Schmidt à la base (v 1 , v 2 , v 3 ).
v1 e 20
Solution 26.3 On pose e 1 = = p1 (1, 1, 0), puis e 20 = v 2 − (v 2 | e 1 ) · e 1 = ( 12 , − 12 , 1) et e 2 = = p1 (1, −1, 2). Enfin,
kv 1 k 2 ke 20 k 6
e 30
e 30 = v 3 − (v 3 | e 1 ) · e 1 − (v 3 | e 2 ) · e 2 = 23 (−1, 1, 1) et e 3 = ke 30 k
= p1 (−1, 1, 1).
3
AIG
on voit donc que ∀ y ∈ E, kx − yk2 > kp F⊥ (x)k2 , et que cette valeur est un minimum atteint uniquement pour
y = p F (x),
F⊥
x−y
p F⊥ (x)
p F (x) y F
ZExemples :
(x|u)
– Distance d’un vecteur à une droite : soit D = Vect [u] une droite vectorielle, on sait que p D (x) = kuk2
u,
q 2
d’où d(x, D) = kx − p D (x)k2 = kxk2 − (x|u)
p
kuk2
.
– Distance d’un vecteur à un hyperplan : soit H un hyperplan de E, alors H⊥ = Vect [u] est une droite
vectorielle, d’où d(x, H) = kp D (x)k = |(x|u)|
kuk .
MO
À retenir
Les coordonnées d’un vecteur normal à H se lisent directement sur une équation cartésienne de H .
NE
La direction de l’hyperplan affine est H = {x ∈ E / (n|x) = 0} = Vect [n]⊥ .
d(M, H ) = PM. P
A
AIG
H
Calcul de d(M, H )
−−→ −−→ −−→ −−→ − −−→ −
Soit →
−
n un vecteur normal à H et A un point de H on a AM = AP + PM or AP ⊥→
n , d’où AM · →
n =
−−→ →− →
−
PM · n = ±PMk n k (vecteurs colinéaires) et donc :
¯−−→ ¯
→
−¯
¯AM · n ¯
¯
d(M, H ) = PM =
k→
−
nk
Si H est donné par une équation cartésienne α1 x 1 + · · · + αn x n = c dans un repère orthonormal, alors on
−−→ −
peut prendre n(α1 , . . . , αn ) et on a AM · →
n = α1 (x 1 − a 1 ) + · · · + αn (x n − a n ) = α1 x 1 + · · · + αn x n − c car A ∈ H ,
par conséquent on a :
|α1 x 1 + · · · + αn x n − c|
d(M, H ) =
NT
q
α21 + · · · + α2n
II ENDOMORPHISMES ORTHOGONAUX
1) Définition
Définition 26.7
Une isométrie vectorielle de E (ou endomorphisme orthogonal de E) est une application f ∈ L (E)
telle que ∀ x ∈ E, k f (x)k = kxk (on dit que f conserve la norme), l’ensemble des endomorphismes
orthogonaux de E est noté O(E).
MO
Théorème 26.15
Un endomorphisme f de E est une isométrie si et seulement si f conserve le produit scalaire, c’est à
dire :
∀ x, y ∈ E, ( f (x)| f (y)) = (x|y).
Preuve : Si f conserve le produit scalaire, il est clair que f conserve la norme, et donc f ∈ O(E).
Réciproquement, si f ∈ O(E) : soient x, y ∈ E, k f (x) + f (y)k2 = kxk2 + kyk2 + 2( f (x)| f (y)), mais on a aussi k f (x) +
f (y)k2 = k f (x + y)k2 = kx + yk2 = kxk2 + kyk2 + 2(x|y), d’où ( f (x)| f (y)) = (x|y).
Théorème 26.16
O(E) est un groupe pour la loi ◦, plus précisément c’est un sous-groupe de GL(E), on l’appelle groupe
NE
orthogonal de E.
Preuve : Si f ∈ O(E), alors si x ∈ ker( f ), on a k f (x)k = 0 = kxk, d’où x = 0, donc f est injective, comme E est de
dimension finie, on a bien f ∈ GL(E). D’autre part, idE ∈ O(E), soient f , g ∈ O(E), k f (g (x))k = kg (x)k = kxk, donc
f ◦ g ∈ O(E), kxk = k f ( f −1 (x))k = k f −1 (x)k, donc f −1 ∈ O(E).
AIG
Théorème 26.17
Une symétrie orthogonale est une isométrie vectorielle.
Preuve : Soit s F la symétrie orthogonale par rapport au s.e.v F, soit p = 12 (s + id), alors on sait que p est la projection
sur F parallèlement à ker(s + id) = F⊥ , donc p est une projection orthogonale. Soit x ∈ E, ks F (x)k2 = kp F (x) − p F⊥ (x)k2 =
kp F (x)k2 + kp F⊥ (x)k2 , or kxk2 = kp F (x) + p F⊥ (x)k2 = kp F (x)k2 + kp F⊥ (x)k2 = ks F (x)k2 , d’où s F ∈ O(E).
Remarque 26.6 – Une projection orthogonale qui n’est pas l’identité, n’est pas une isométrie (elle n’est pas
bijective).
Solution 26.4 Soit w = u − v, soit H = Vect [w]⊥ et s = s H , on a (u − v|u + v) = kuk2 −kvk2 = 0, donc u + v ∈ H, on a donc
s(u − v) = v − u et s(u + v) = u + v, la résolution de ce système donne s(u) = v et s(v) = u.
Si s 0 est une autre réflexion qui convient, alors on doit avoir s 0 (u − v) = v − u, donc ker(s 0 + id) = Vect [w] et par
conséquent, s 0 = s.
Remarque : l’hyperplan H s’appelle hyperplan médiateur de [u; v], car si x ∈ H, alors ku − xk = ks(v) − s(x)k = kv − xk.
Théorème 26.18
Soit f ∈ L (E), alors f ∈ O(E) ⇐⇒ f transforme une b.o.n en une b.o.n de E.
MO
2) Matrices orthogonales
Théorème 26.19
Soit f ∈ L (E), soit B une base orthonormale de E et soit A = mat( f ) ∈ Mn (R), alors :
B
f ∈ O(E) ⇐⇒ t A × A = In .
n
Preuve : Soit B = (e 1 , . . . , e n ), on a [t A × A]i , j = a k,i a k, j = ( f (e i )| f (e j )) = δi , j , donc t A × A = In .
P
k=1
À retenir
Plus généralement, si x 1 , . . . , x p est une famille de vecteurs de E et si A désigne la matrice des coordon-
NE
nées de cette famille dans une b.o.n., alors t A × A est la matrice carrée de taille p dont le terme général
est (x i |x j ), cette matrice est appelée matrice de Gram de la famille.
Définition 26.10
Soit A ∈ Mn (R), on dit que A est une matrice orthogonale lorsque t A × A = In , l’ensemble des matrices
orthogonales de taille n est noté On (R).
AIG
• A ∈ On (R).
• A est inversible et A−1 = t A.
• Les vecteurs colonnes de A forment une b.o.n de Rn .
n
Preuve : On sait que [t A × A]i , j = a k,i a k, j = (c i (A)|c j (A)) (produit scalaire canonique dans Rn ). Donc le troisième
P
k=1
point équivaut [t A × A]i , j = δi , j .
Conséquences
On (R) est un groupe multiplicatif, c’est en fait un sous-groupe de (GLn (R), ×), que l’on appelle groupe
orthogonal de type n sur R.
Théorème 26.21
Si f ∈ O(E), alors det( f ) = ±1. Si A ∈ On (R) alors det(A) = ±1.
NT
Preuve : Si A est la matrice de f dans une base orthonormale, alors A ∈ On (R) donc t A × A = In , on en déduit que
det(t A × A) = 1 = det(A)2 , et donc det(A) = ±1.
Définition 26.11
© ª
Il est facile de vérifier que l’ensemble f ∈ O(E) / det( f ) = 1 est un sous-groupe de (O(E), ◦). On
l’appelle groupe des rotations et on le note SO(E) groupe spécial orthogonal de E (parfois noté
O+ (E)). On a donc SO(E) = { f ∈ O(E) / det( f ) = 1}.
De même, on vérifie que l’ensemble des matrices orthogonales de déterminant égal à 1 est un sous-
groupe de On (R), on le note SOn (R) et on l’appelle groupe spécial orthogonal de type n sur R (ou
groupe des matrices de rotation de taille n).
MO
ZExemples :
−1 1 −1 1
1 1 1 1
– Soit A = 12 , les vecteurs colonnes de A sont unitaires et deux à deux orthogonaux,
1 −1 −1 1
−1 −1 1 1
donc A ∈ O4 (R), on a det(A) = 1, donc A est la matrice d’une rotation.
– Une réflexion n’est pas dans SO(E), en effet, soit s la réflexion par rapport à un hyperplan H, soit e n un
de la droite H⊥ , et
vecteur unitaire soit (e 1 , . . . , e n−1 ) une b.o.n de H, alors B = (e 1 , . . . , e n ) est une b.o.n
1 0 ··· 0
0 . . .
..
.
de E et mat(s) = . , on voit donc que det(s) = −1.
B .
. 1 0
0 · · · 0 −1
NE
• La composée de deux rotations est une rotation.
• La composée d’une rotation et d’une isométrie négative (det = −1) est une isométrie négative.
• La composée de deux isométries négatives est une rotation.
Théorème 26.22
Soit f ∈ O(E), soit F un s.e.v de E, montrer que si F est stable par f , alors F⊥ aussi.
AIG
3) Espace vectoriel euclidien orienté - Produit mixte
Soit (E, (.|.)) un espace euclidien orienté (on a donc choisi la classe des bases directes).
Preuve : Si f ∈ SO(E), soit B = (e 1 , . . . , e n ) une b.o.n.d de E, on sait que f transforme B en une b.o.n de E, B0 =
( f (e 1 ), . . . , f (e n )), le déterminant de la matrice de passage est le déterminant de f qui vaut 1, donc B0 est une base
directe.
Réciproquement : si f transforme une b.o.n.d B en une b.o.n.d B0 , alors on sait que f ∈ O(E), le déterminant de f
vaut ±1, or le déterminant de f est le déterminant de la matrice de passage de B à B0 et celui-ci est strictement positif,
donc det( f ) = 1, i.e. f est une rotation.
NT
Théorème 26.24
Soit B une b.o.n.d de E, soit B0 une autre base orthonormale de E, alors :
• Si B0 est directe, alors detB0 = detB .
• Si B0 est indirecte, alors detB0 = − detB .
Preuve : Si B0 est indirecte, alors la matrice de passage de B à B0 a un déterminant strictement négatif, mais cette
matrice est une matrice orthogonale, donc son déterminant vaut −1. Or on a la relation detB = detB (B0 ) detB0 , et
donc detB = − detB0 .
Définition 26.12
Soit B = (e 1 , . . . , e n ) une b.o.n.d de E, soit (x 1 , . . . , x n ) une famille de vecteurs de E. On appelle pro-
duit mixte des vecteurs x 1 , . . . , x n , le réel noté [x 1 , . . . , x n ] et défini par : [x 1 , . . . , x n ] = detB (x 1 , . . . , x n ).
D’après le théorème précédent, ce nombre ne dépend pas de la b.o.n.d choisie.
Remarque 26.7 – Le produit mixte étant un déterminant, il hérite des propriétés de ce dernier.
Interprétation géométrique
– En dimension 2 : si E est un plan euclidien orienté et (u, v) est une base (quelconque) de E, alors [u, v]
est l’aire orientée du parallélogramme construit sur u et v, positive si (u, v) est dans le sens directe,
NE
négative sinon. Lorsque (u, v) est liée, le résultat est encore valable car le produit mixte est nul dans ce
cas, et l’aire aussi.
En effet : on construit une b.o.n.d (i , j ) de telle sorte que u = kuki , on a alors u(kuk, 0) et v(a, b) d’où
[u, v] = kukb or cette quantité représente effectivement l’aire annoncée (base fois hauteur).
– En dimension 3 : si E est un espace euclidien orienté de dimension 3, et (u, v, w) est une base (quel-
conque) de E, alors [u, v, w] est le volume orienté du parallélépipède construit sur u, v et w, positif si
(u, v, w) est dans le sens directe, négatif sinon. Lorsque (u, v, w) est liée, le résultat est encore valable
car le produit mixte est nul dans ce cas, et le volume aussi (vecteurs coplanaires).
En effet : on construit une b.o.n.d (i , j , k) de telle sorte que u = kuki , v = ai + b j et b > 0, on a alors
u(kuk, 0, 0), v(a, b, 0) et w(α, β, γ), d’où [u, v, w] = kukbγ = [u, v]γ (produit mixte [u, v] dans le plan
(i , j ) orienté par k), cette quantité représente effectivement le volume annoncé (base fois hauteur).
AIG
III ENDOMORPHISMES ORTHOGONAUX EN DIMENSION 1 ET 2
1) En dimension 1
Si dim(E) = 1 et si f ∈ O(E), alors f est une homothétie de rapport λ ∈ R, mais f conserve la norme donc
∀ x ∈ E, kλxk = kxk, ce qui donne en prenant x 6= 0, |λ| = 1, d’où O(E) = {±idE } et SO(E) = {idE }.
2) En dimension 2
Soit E un plan euclidien orienté et soit f ∈ O(E), on peut effectuer la classification suivant les invariants
de f , c’est à dire suivent le s.e.v. F = ker( f − idE ).
– dim(F) = 2 : alors f = idE ∈ SO(E) .
– dim(F) = 1 : alors F = Vect [u] est une droite vectorielle (avec u unitaire) stable par f , donc F⊥ est
une droite vectorielle stable par f également et sur laquelle le seul vecteur invariant est 0, donc la
NT
restriction de f à F⊥ est −idF⊥ . Soit v un vecteur unitaire de F⊥ , alors B = (u, v) est une b.o.n de E et on
µ ¶
1 0
a mat( f ) = , donc f est la réflexion d’axe F .
B 0 −1
Soit B0 = (i , j ) une b.o.n.d, il existe un réel θ tel que u = cos(θ/2)i + sin(θ/2) j , on prend alors v =
µ ¶
0 cos(θ/2) − sin(θ/2)
− sin(θ/2)i + cos(θ/2) j , la matrice de passage de B à B est P = , et la matrice
sin(θ/2) cos(θ/2)
µ ¶
cos(θ) sin(θ)
de f dans la base B0 est mat( f ) = .
B0 sin(θ) − cos(θ)
µ ¶
a b
– dim(F) = 0, seul 0 est invariant par f , soit B = (i , j ) une b.o.n.d de E, alors mat( f ) = A = , avec
B c d
2 2
a + c =1
MO
= 1 , avec les complexes z = a+i c et z 0 = b+i d , on a |z| = |z 0 | = 1, donc z = e i θ , z 0 = e i θ , avec
0
2 2
b +d
ab + cd = 0
(
b = cos(θ0 ) = − sin(θ)
Re(zz ) = ab +cd = 0, donc cos(θ−θ ) = 0, d’où θ = θ+π/2+kπ, ce qui donne
0 0 0
,
d = sin(θ0 ) = cos(θ)
(
b = cos(θ0 ) = sin(θ)
ou bien , mais le second cas correspond à une réflexion d’après l’étude précé-
d = sin(θ0 ) = − cos(θ)
µ ¶
cos(θ) − sin(θ)
dente, il reste donc : mat( f ) = , cette matrice est notée R(θ), c’est la matrice d’une
B sin(θ) cos(θ)
rotation (déterminant 1). µ ¶
a
Soit u un vecteur non nul, et soit v = f (u), notons X = les coordonnées de u dans la base B, alors
b
µ ¶
a cos(θ) − b sin(θ)
les coordonnées de v sont X 0 = AX = , d’où l’affixe de v, z v = a cos(θ) − b sin(θ +
a sin(θ) + b cos(θ)
i (a sin(θ) + b cos(θ)) = e i θ (a + i b) = e i θ z u , donc θ est l’angle orienté des deux vecteurs u et v. On dit
que f est la rotation d’angle θ .
NE
À retenir
En dimension 2, la matrice de la rotation d’angle θ est R(θ) dans toutes les b.o.n.d de E.
En résumé :
AIG
où u = cos(θ/2)i + sin(θ/2) j .
µ ¶
cos(θ) sin(θ)
→ SO2 (R) = {R(θ) / θ ∈ R} et O−2 ( R) = { / θ ∈ R}
sin(θ) − cos(θ)
→
−
x
D⊥
D
−
x→
2
→
− →
−
x =−
x→ −→
1 + x2 θ/2 →
−
θ
→
−
ı →
−
ı
−
x→
1 −−
x→
2
NT
r (→
−
x)
s(→
−
x )=−
x→ −→
1 − x2
u = cos(θ/2)i + sin(θ/2) j et u 0 = cos(θ0 /2)i + sin(θ0 /2) j . La matrice de s ◦ s 0 dans la base B est la matrice
cos(θ0 ) sin(θ0 )
µ ¶ µ ¶
cos(θ) sin(θ)
A= × = R(θ − θ0 ), donc s ◦ s 0 est la rotation d’angle θ − θ0 = 2(u 0 , u)
sin(θ) − cos(θ) sin(θ0 ) − cos(θ0 )
(mod 2π). Ce calcul montre en même temps, qu’une rotation peut s’écrire comme la composée de deux
réflexions dont une est arbitraire.
Sommaire
AIG
I Notion de variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
2) Loi d’une VA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
3) Image d’une VA par une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
II Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
1) Variables certaines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
2) Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
3) Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
4) Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
III Espérance et variance d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
1) Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
2) Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
3) Cas des lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
NT
IV Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
2) Indépendance de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
3) Applications de l’indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
4) Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
Souvent, lors d’une expérience aléatoire, on ne s’intéresse pas vraiment à l’ensemble des résultats possibles,
mais un aspect particulier du résultat, par exemple : la somme obtenue lors d’un lancer de deux dés, le
temps d’attente du premier pile dans un lancer de pièce etc.
1) Définition
Définition 27.1
Soit Ω un univers fini. Toute application X : Ω → E est appelée variable aléatoire, lorsque E = R, on dit
que X est une variable aléatoire réelle (notée VAR). Lorsque X est constante, on parle de VA constante
ou de variable aléatoire certaine.
Remarque 27.1 –
– Notons qu’une variable aléatoire n’est une pas une variable en réalité, mais une application, et n’a rien
d’aléatoire !
– L’ensemble des images X(Ω) est un ensemble fini qu’on note parfois X(Ω) = {x 1 , . . . , x n }.
ZExemples :
– Expérience : on lance deux dés, on note X la somme des chiffres obtenus.
Univers : Ω = J1; 6K, X(Ω) = J2; 12K.
NE
– Expérience : on lance n fois une pièce, on note X le numéro du lancer où apparaît un pîle la première
fois.
Univers : Ω = {P, F}n , X(Ω) = J0; n K.
Remarque 27.2 –
– L’ensemble des VAR sur Ω est F (Ω, R) qui a une structure de R-espace vectoriel et d’anneau pour les lois
usuelles.
AIG
– Si X : Ω → E est une VA et u : E → F est une application, alors u ◦ X est une VA sur Ω, elle est généralement
notée u(X).
2) Loi d’une VA
Théorème 27.1
Si X est une VA sur (Ω, P), l’application PX : P (X(Ω)) → [0; 1] définie par PX (A) = P(X ∈ A) pour toute
NT
partie A de X(Ω), est une probabilité sur X(Ω), on l’appelle loi de X.
Preuve : On a PX (X(Ω)) = P(X ∈ X(Ω)) = P(Ω) = 1. Soient A et B deux parties disjointes de X(Ω) alors X −1 (A) et X −1 (B) sont
deux événements incompatibles de Ω, donc PX (A ∪ B) = P(X −1 (A ∪ B)) = P(X −1 (A) ∪ X −1 (B)) = P(X −1 (A)) + P(X −1 (B)) =
PX (A) + PX (B).
Remarque 27.3 – Si A est une partie de X(Ω) alors P(X ∈ A) = PX (A) = PX ({x}) = P(X = x).
P P
x∈A x∈A
À retenir
Déterminer la loi de X, c’est déterminer X(Ω) et pour tout x ∈ X(Ω), la probabilité P(X = x). On
remarquera que si X est une VA sur l’univers fini Ω, alors la famille d’événements ((X = x))x∈X(Ω) est
un système complet d’événements.
Il est clair que ces événements sont incompatibles deux à deux et que :
MO
Remarque 27.4 – Parfois on ne connaît pas exactement X(Ω) mais un ensemble E contenant X(Ω), dans ce cas,
pour x ∉ X(Ω) on trouve P(X = x) = 0.
FExercice 27.1 On lance un dés deux fois, on note X la somme obtenue. Déterminer la loi de X.
n o
2 2
Solution 27.1 Ω = J1; 6K , X(Ω) = J2; 12K et P(X = k) = P( (i , j ) ∈ J1; 6K / i + j = k ). On doit avoir j = k −i ∈ J1; 6K, d’où
k−1
k−1
k − 6 6 i 6 k − 1 avec i ∈ J1; 6K, d’où la discussion : si k 6 6, alors P(X = k) = P({(i , k − i )}) =
P
36 , et si 7 6 k 6 12 alors
i =1
6
13−k
P(X = k) = P({(i , k − i )}) =
P
36 .
i =k−6
FExercice 27.2 Soit X un VAR à valeurs entières, montrer que P(X = k) = P(X 6 k)−P(X 6 k −1) = P(X > k))−P(X > k +1).
Solution 27.2 Il suffit d’écrire que (X 6 k) = (X = k) ∪ (X 6 k − 1) et que (X > k) = (X = k) ∪ (X > k + 1) (réunion
d’événements incompatibles).
NE
3) Image d’une VA par une fonction
Théorème 27.2
Soit X une VA sur (Ω, P) et u une fonction définie sur X(Ω), notons Y = u ◦ X et X(Ω) = {x 1 , . . . , x n },
alors :
∀y ∈ Y(Ω), P(Y = y) = P(X = x)
X
x∈u −1 ({ y })
AIG
Solution 27.3 X(Ω) = J−5; 5K, si k = i − j alors i = k + j ∈ J1; 6K d’où 1 − k 6 j 6 6 − k, d’où la discussion, si k 6 0, alors
6 6−k
P(X = k) = P( (k + j , j ) ) = 6+k
36 , et si k > 1, P(X = k) = P( (k + j , j ) ) = 6−k
P © ª P © ª
36 .
j =1−k j =1
P(|X| = k) = P((X = k) ∪ (X = −k)) = 16 si k = 0 et 6−k
18 si k ∈ 1; 5 .
J K
2 2 1 6−k
P(X = k ) = P((X = k) ∪ (X = −k)) = 6 et 12 si k ∈ J1; 5K.
Attention !
Comme on le voit dans l’exemple ci-dessus, deux VA peuvent avoir la même loi sans être égales pour autant !
Remarque 27.5 – Si X et Y sont deux VA sur (Ω, P) alors on peut définir les lois de X + Y et de XY :
1) Variables certaines
Définition 27.3
Une VA est dire certaine lorsqu’elle est constante, auquel cas on a X(Ω) = {x 1 } et donc P(X = x 1 ) = 1.
2) Loi uniforme
Définition 27.4
MO
On dit que la VA X suit une loi uniforme sur X(Ω) = {x 1 , . . . , x n } lorsque ∀k ∈ J1; n K , P(X = x k ) = n1 . Ce
que l’on note X ,→ U (X(Ω)).
3) Loi de Bernoulli
Définition 27.5
Soit p ∈ [0; 1] et q = 1 − p. On dit que la VA X suit une loi de Bernoulli de paramètre p, lorsque sur
X(Ω) = {0, 1}, P(X = 1) = p et P(X = 0) = q. Ce que l’on note X ,→ B(p).
Remarque 27.6 – Cette loi est utile pour les expériences aléatoires ayant deux issues possibles : succès avec
probabilité p ou bien échec avec une probabilité de 1 − p, ce que l’on appelle des épreuves de Bernoulli.
NE
ZExemple : La variable indicatrice d’un événement A suit une loi de Bernoulli de paramètre p = P(A).
Remarque 27.7 – Si X et Y sont deux VA qui suivent une loi de Bernoulli, alors XY également.
4) Loi binomiale
Définition 27.6
Soient n ∈ N, p ∈ [0; 1] et q = 1 − p. On dit que la VA X suit une loi binomiale de paramètres n et p,
lorsque sur X(Ω) = J0; n K, et ∀k ∈ J0; n K, P(X = k) = nk p k (1 − p)n−k . Ce que l’on note X ,→ B(n, p).
¡ ¢
AIG
À retenir
La loi binomiale apparaît quand on considère le nombre X de succès dans une suite de n épreuves de
Bernoulli mutuellement indépendantes et dans lesquelles la probabilité du succès est p ∈ [0; 1].
En effet, on a X(Ω) = J0; n K et l’événement (X = k) est l’ensemble des n-uplets de 1 ou 0 contenant k fois
le nombre 1, il y en a nk , la probabilité de chacun d’eux est p k (1 − p)n−k car les épreuves sont mutuellement
¡ ¢
ZExemples :
– On effectue n tirages successifs avec remise dans une urne contenant des boules blanches et noires
dans des proportions de p et q = 1 − p. On note X le nombre de boules blanches obtenues, alors
X ,→ B(n, p).
– Une pièce donne face avec une probabilité p et pile avec une probabilité q = 1−p. On effectue n lancers
NT
dans les mêmes conditions à chaque fois, on note X le nombre de faces obtenus, alors X ,→ B(n, p).
1) Espérance
Définition 27.7
L’espérance d’une variable aléatoire X est le réel noté E(X) et défini par :
E(X) = x P(X = x).
P
x∈X(Ω)
Lorsque son espérance est nulle, on dit que la variable aléatoire X est centrée.
MO
Remarque 27.8 – Il s’agit de la moyenne pondérée des valeurs prises par X, car la somme des probabilités vaut
1.
ZExemples :
6
i 21
– On lance un dé équilibré, X est le numéro de la face supérieure, E(X) = = 27 .
P
6 = 6
i =1
– Si A est un événement, l’espérance de l’indicatrice de A est E(1A ) = P(A).
– L’espérance d’une variable certaine est la constante.
Théorème 27.3
Si X est une variable aléatoire sur (Ω, P) alors E(X) = X(ω)P({ω}).
P
ω∈Ω
Preuve : Soit X(Ω) = x 1 , . . . , x p , soit Ak = X −1 ( x k ), alors (A1 , . . . , A p ) est un système complet d’événements et P(Ak ) =
© ª © ª
P({ω}). On a donc :
P
ω∈Ak
NE
à !
X p
X X
X(ω)P({ω}) = X(ω)P({ω})
ω∈Ω k=1 ω∈Ak
à !
p
x k P({ω})
X X
=
k=1 ω∈Ak
à !
p
P({ω})
X X
= xk
k=1 ω∈Ak
p p
x k P(Ak ) = x k P(X = x k ) = E(X).
X X
=
k=1 k=1
AIG
Théorème 27.4 (linéarité de l’espérance)
Si X et Y sont deux variables aléatoires sur (Ω, P) alors pour tout réel λ :
E(λX + Y) = λE(X) + E(Y).
À retenir
Si X est une variable aléatoire alors X−E(X) est une variable aléatoire centrée. C’est la variable aléatoire
centrée associée à X.
NT
FExercice 27.4 Une urne contient n boules numérotées de 1 à n, on les tire successivement et sans remise, on dit qu’il y
a rencontre au tirage i lorsque la boule tirée est la boule numéro i . Déterminer le nombre moyen de rencontres.
Solution 27.4 Soit X le nombre de rencontres, on demande E(X), notons X i la variable aléatoire qui vaut 1 si le i e tirage
n n
est une rencontre, 0 sinon (variable de Bernoulli), on a alors X = X 1 + · · · + X n et donc E(X) = E(X i ) = P(X i = 1). On
P P
i =1 i =1
(n−1)! 1
peut modéliser l’expérience par le choix équiprobable d’une permutation des n boules, on alors P(X i = 1) = n! = n
(autrement dit X i ,→ B( n1 )) et donc E(X) = 1.
n
Preuve : Le premier point découle de la définition d’espérance E(X) = x k P(X = x k ), car chaque valeur x k de X est
P
k=1
positive ou nulle et les probabilités aussi. Si cette somme est nulle, alors tous les termes doivent être nuls, X prend donc
nécessairement la valeur 0 (sinon E(X) > 0 car les probabilités ne peuvent pas être toutes nulles) et pour x k 6= 0 on a
forcément P(X = x k ) = 0), ce qui entraîne que P(X = 0) = 1 puisque la somme des probabilités doit faire 1. La réciproque
est immédiate.
Preuve : La variable Z = Y − X est positive, donc E(Z) > 0, la linéarité permet alors d’écrire E(Y) − E(X) > 0 ce qui donne
le résultat.
NE
∀a > 0, P({X > a}) 6 a .
X
Remarque 27.9 – On peut aussi montrer l’inégalité de Markov en remarquant que 1X>a 6 a et utiliser la
croissance de l’espérance.
AIG
x∈X(Ω)
on a :
E(u(X)) =
X
u(X(ω))P({ω})
ω∈Ω
à ! à !
n n
P({ω})
X X X X
= u(X(ω))P({ω}) = u(x k )
k=1 ω∈Ak k=1 ω∈Ak
n
X n
X
= u(x k )P(Ak ) = u(x k )P(X = x k )
k=1 k=1
X
= u(x)P(X = x)
x∈X(Ω)
NT
Remarque 27.10 – La formule de droite proposée dans le théorème n’est autre que l’espérance de la variable
aléatoire u sur l’espace probabilisé (X(Ω), PX ). Cette formule fait intervenir la loi de probabilité de X mais pas
celle de u(X), ce qui fait son interêt.
FExercice 27.5 Si X ,→ U (J1; n K), calculer E(X2 ) et E(e X ).
n n
(2n+1)(n+1) e(e n −1)
Solution 27.5 E(X 2 ) = k 2 n1 = , et E(e X ) = e k n1 =
P P
6 n(e−1) .
k=1 k=1
2) Variance et écart-type
Remarque 27.12 –
– La définition a bien un sens puisque X − E(X) est une variable aléatoire. Ces notions permettent de
mesurer la dispersion de X autour de sa valeur moyenne.
NE
– V(X) = 0 ⇐⇒ P(X = E(X)) = 1, la variable aléatoire X est presque sûrement constante.
– Il résulte du théorème de transfert que V(X) = (x − E(X))2 P(X = x), mais la formule la plus utilisée
P
x∈X(Ω)
est celle du théorème suivant.
Preuve : En effet :
(X − E(X))2 = X 2 + E(X)2 − 2XE(X), l’espérance étant linéaire, on a V(X) = E(X 2 ) + E(X)2 − 2E(X)E(X) = E(X 2 ) − (E(X))2 .
FExercice 27.6
AIG
1/ Si X(Ω) = J1; n K et P(X = k) = ak. Calculer a, E(X) et V(X).
2/ Si X est une VAR, déterminer le minimum de la fonction f : t 7→ E([X − t ]2 ) sur R.
Solution 27.6
n n n
2 2 (2n+1)n(n+1) 2n+1 n(n+1)
E(X) = ak 2 = E(X 2 ) = ak 3 =
P P P
1/ On doit avoir ak = 1 d’où a = n(n+1) . n(n+1) 6 = 3 . 2 ,
k=1 k=1 k=1
n(n+1) 2
V(X) = E(X 2 ) − E(X)2 = 2 − (2n+1)
9 = (n−1)(n+2)
18 .
2/ f (t ) = E(X 2 ) − 2t E(X) + t = (t − E(X))2 + E(X ) − E(X)2 = (t − E(X))2 + V(X), cette quantité est minimale lorsque
2 2
À retenir
Il est parfois judicieux de calculer E(X(X − 1)) ou E(X(X + 1)) pour en déduire E(X 2 ).
NT
Théorème 27.10 (propriétés)
Soit X une variable aléatoire réelle sur (Ω, P) alors :
• V(X) > 0.
• ∀a, b ∈ R, V(aX + b) = a 2 V(X) et σ(aX + b) = |a|σ(X).
V(X)
• Inégalité de Bienaymé-Tchebychev : ∀ε > 0, P(|X − E(X)| > ε|) 6 ε2
.
Preuve :
• Par définition, V(X) = E([X − E(X)]2 ) qui est donc un réel positif par positivité de l’espérance.
• On a E(aX + b) = aE(X) + b d’où [(aX + b) − E(aX + b)]2 = a 2 [X − E(X)]2 et donc V(aX + b) = E(a 2 [X − E(X)]2 ) = a 2 V(X).
En prenant la racine carrée on obtient σ(aX + b) = |a|σ(X).
• Soit Y = [X − E(X)]2 , alors P(|X − E(X)| > ε|) = P(Y > ε2 ) 6 E(Y)
MO
ε2
(inégalité de Markov), ce qui donne exactement le
résultat.
Applications :
– Une variable aléatoire dont l’écart-type vaut 1 est appelée variable aléatoire réduite. Si X est une VAR dont la
variance est non nulle, alors la variable aléatoire X ∗ = X−E(X)
σ(X) est une variable aléatoire centrée réduite, appelée
variable centrée réduite associée à X.
– L’inégalité de Bienaymé-Tchebychev apporte réellement un renseignement lorsque V(X) ε2
6 1, mais cette majo-
ration est en général assez grossière et son intérêt est surtout théorique. Elle indique néanmoins que X prend
des valeurs proches de sa moyenne avec une grande probabilité. On peut également l’écrire sous la forme :
P(|X − E(X)| < ε) > 1 − V(X)
ε2
.
Théorème 27.11
• Si X est une variable certaine de valeur a ∈ R, alors E(X) = a et V(X) = 0.
NE
x +···+x
• Si X suit la loi uniforme sur {x 1 , . . . , x n } alors E(X) = 1 n n . En particulier si X ,→ U (J1; n K) alors
2
E(X) = n+1 n −1
2 et V(X) = 12 .
• Si X suit une loi de Bernoulli de paramètre p ∈ [0; 1] alors E(X) = p et V(X) = p(1 − p).
• Si X suit une loi binomiale de paramètres n et p, alors E(X) = np et V(X) = np(1 − p).
Preuve :
• Immédiat.
n n 2
k2 (2n+1)(n+1)
• Si X ,→ U (J1; n K) : E(X) = k n+1 2
2 , E(X ) = , d’où V(X) = (2n+1)(n+1) − (n+1) (n+1)(n−1)
P P
n = n = 6 6 4 = 12 .
k=1 k=1
• Si X ,→ B(p), E(X) = P(X = 1) = p, X 2 suit la même loi que X donc V(X) = p − p 2 = p(1 − p).
n
• Si X ,→ B(n, p), il s’agit de calculer E(X) = k nk p k q n−k (avec q = 1 − p), cette expression est la dérivée en 1 de la
P ¡ ¢
k=0
n ¡ ¢
n k k n−k
= (px + q) , d’où f 0 (x) = pn(px + q)n−1 et donc f 0 (1) = np.
n
AIG
P
fonction f (x) = k x p q
k=0
Autre méthode : une pièce donne face avec une probabilité p et pile avec une probabilité q = 1 − p. On effectue n
lancers dans les mêmes conditions à chaque fois, on note X le nombre de faces obtenus, alors X ,→ B(n, p). Notons X i
la variable aléatoire valant 1 si on a obtenu face au lancer numéro i , 0 sinon, alors X i ,→ B(p) et X = X 1 + · · · + X n , d’où
E(X) = E(X 1 ) + · · · + E(X n ) = np.
n
Pour la variance, on calcule E(X(X − 1)) = k(k − 1) nk p k q n−k = f 00 (1) avec les notations ci-dessus, or f 00 (x) =
P ¡ ¢
k=0
p 2 n(n − 1)(px + q)n−2 et donc E(X(X − 1)) = n(n − 1)p 2 = E(X 2 ) − E(X), d’où E(X 2 ) = n(n − 1)p 2 + np = np[np − p + 1] et
V(X) = E(X 2 ) − E(X)n = np[np − p + 1] − (np)2 = np(1 − p).
1) Définitions
Définition 27.10
NT
Soient X et Y deux variables aléatoires sur (Ω, P) à valeurs dans E pour X et F pour Y, on appelle couple
des variables X et Y, et on note Z = (X, Y), l’application :
Z: Ω → E ×F .
ω 7→ Z(ω) = (X(ω), Y(ω))
Remarque 27.13 – L’application Z est une variable aléatoire sur (Ω, P) et Z(Ω) ⊂ X(Ω) × Y(Ω).
Z(Ω) → [0; 1]
.
(x, y) 7→ P([X = x] ∩ [Y = y])
Remarque 27.14 – Déterminer la loi conjointe revient donc à déterminer X(Ω) = {x 1 , . . . , x n } et Y(Ω) =
y 1 , . . . , y p , puis à calculer les probabilités p i j = P([X = x i ] ∩ [Y = y j ]) pour (i , j ) ∈ J1; n K × J1; p K. Dans la
© ª
Y y1 y2 ··· yp
X
x1 p 11 p 12 ··· p 1p
x2 p 21 p 22 ··· p 2p
.. .. .. ..
. . . .
xn p n1 p n2 ··· p np
NE
appelées lois marginales du couple.
À retenir
La loi conjointe permet d’obtenir les lois marginales, car on peut écrire (avec les notations précé-
dentes) :
p p
P(X = x i ) = P([X = x i ] ∩ [Y = y j ]) =
P P
pi j
j =1 j =1
et :
n n
P(Y = x j ) = P([X = x i ] ∩ [Y = y j ]) =
P P
pi j .
i =1 i =1
Notation : on écrit p i • = P(X = x i ) et p • j = P(Y = y j ).
AIG
FExercice 27.7 On lance 2 dés parfaits, on note X le minimum des deux résultats et Y le maximum. Déterminer la loi
conjointe et les lois marginales.
1 1
Solution 27.7 On a X(Ω) = Y(Ω) = J1; 6K, pour (i , j ) ∈ J1; 6K, on a p i j = 0 si i > j , p i i = 36 et p i j = 18 si i < j , d’où la
table :
Y 1 2 3 4 5 6 pi •
X
1 1 1 1 1 1 11
1 36 18 18 18 18 18 36
1 1 1 1 1 9
2 0 36 18 18 18 18 36
1 1 1 1 7
3 0 0 36 18 18 18 36
1 1 1 5
4 0 0 0 36 18 18 36
1 1 1
5 0 0 0 0 36 18 12
1 1
6 0 0 0 0 0
NT
36 36
p• j 1 1 5 7 9 11 1
36 12 36 36 36 36 1
Attention !
La connaissance des lois marginales ne permet pas en général de retrouver la loi conjointe, comme on peut s’en
convaincre sur l’exemple précédent.
Définition 27.13
Soient X : Ω → E et Y : Ω → F deux variables aléatoires sur (Ω, P). Soit y ∈ Y(Ω), on appelle loi condi-
tionnelle de X sachant (Y = y) la loi de X dans l’espace (Ω, P(Y=y) ), c’est à dire l’application :
X(Ω) → [0; 1]
MO
P([X=x]∩[Y=y]) .
x 7→ P(Y=y) (X = x) = P(Y=y)
De même, soit x ∈ X(Ω), on appelle loi conditionnelle de Y sachant (X = x) la loi de Y dans l’espace
(Ω, P(X=x) ), c’est à dire l’application :
Y(Ω) → [0; 1]
P([Y=y]∩[X=x]) .
y 7→ P(X=x) (Y = y) = P(X=x)
À retenir
NE
Si (X, Y) est un couple de variables aléatoires sur (Ω, P), on suppose que pour tout x ∈ X(Ω) et tout
y ∈ Y(Ω), P(X = x) 6= 0 et P(Y = y) 6= 0, alors :
P(X = x) = P(Y = y) × P(Y=y) (X = x),
P
y∈Y(Ω)
et :
P(Y = y) = P(X = x) × P(X=x) (Y = y),
P
x∈X(Ω)
AIG
Soient, X 1 , . . . , X n des variables aléatoires sur (Ω, P) à valeurs dans E1 , . . . , En respectivement, le vecteur
aléatoire Z = (X 1 , . . . , X n ) est l’application :
Z : Ω → E1 × · · · × En .
ω 7→ Z(ω) = (X 1 (ω), · · · , X n (ω))
La loi conjointe du vecteur Z est la loi de probabilité de la variable aléatoire Z = (X 1 , . . . , X n ), c’est à
dire l’application :
Z(Ω) → R
.
(x 1 , . . . , x n ) 7→ P([X 1 = x 1 ] ∩ · · · ∩ [X n = x n ])
et les lois des variables aléatoires X 1 , . . . , X n sont appelées lois marginales du vecteur Z.
Définition 27.15
NT
Soient X et Y deux variables aléatoires sur (Ω, P), on dit que X et Y sont indépendantes lorsque :
∀A ⊂ X(Ω), ∀B ⊂ Y(Ω), P([X ∈ A] ∩ [Y ∈ B]) = P(X ∈ A) × P(Y ∈ B),
c’est à dire les événements (X ∈ A) et (Y ∈ B) sont indépendants.
Théorème 27.12
Deux variables aléatoires X et Y sur (Ω, P) sont indépendantes si et seulement si :
∀(x, y) ∈ X(Ω) × Y(Ω), P([X = x] ∩ [Y = y]) = P(X = x) × P(Y = y).
Preuve : Le sens =⇒ est évident. Montrons la réciproque : soient A une partie de X(Ω) et B une partie de Y(Ω), on a alors
S
[X ∈ A] ∩ [Y ∈ B] = [X = x] ∩ [Y = y] et ces événements sont incompatibles deux à deux, d’où :
MO
(x,y)∈A×B
P(X = x) × P(Y = y)
X X
=
x∈A y∈B
à ! à !
P(X = x) × P(Y = y)
X X
=
x∈A y∈B
= P(X ∈ A) × P(Y ∈ B)
Remarque 27.15 – Lorsque X et Y sont deux variables aléatoires indépendantes sur (Ω, P), la connaissance des
deux lois marginales permet de reconstituer la loi conjointe car p i j = p i • × p • j , et les lois conditionnelles sont
égales aux lois marginales.
NE
ZExemple : Dans l’exercice 27.7, les variables aléatoires X et Y ne sont pas indépendantes.
P([ f (X) = a] ∩ [g (Y) = b]) = P([X ∈ A] ∩ [Y ∈ B]) = P(X ∈ A) × P(Y ∈ B) = P( f (X) = a) × P(g (Y) = b)
AIG
Voici un autre résultat utile :
À retenir
Soit X et Y deux variables aléatoires indépendantes sur (Ω, P), et f : X(Ω) × Y(Ω) → E, alors :
P( f (X, Y) = z) = P(X = x) × P(Y = y).
P
(x,y)∈ f −1 ({z})
S
En effet, il suffit de remarquer que l’événement ( f (X, Y) = z) s’écrit [X = x] ∩ [Y = y].
(x,y)∈ f −1 ({z})
FExercice 27.8 Soient X et Y deux variables aléatoires indépendantes sur (Ω, P) suivant la même loi uniforme sur J1; n K.
Déterminer les lois de X + Y et de X − Y.
Solution 27.8 Soit Z = X + Y, alors Z(Ω) = J2; 2n K et :
min(k−1,n)
P(Z = k) = P(X = i ) × P(Y = k − i )
X
NT
i =max(k−n,1)
min(k − 1, n) − max(k − n, 1) + 1 n − |n + 1 − k|
= =
n2 n2
(
k−1
n2
si k 6 n + 1
= 2n+1−k
n2
sinon
n−|k|
De même, en posant H = X − Y, on montre que H(Ω) = J−(n − 1); (n − 1)K et P(H = k) = n2
.
Remarque 27.16 – Comme pour les événements, l’indépendance mutuelle des variables aléatoires entraîne
l’indépendance deux à deux, mais la réciproque est fausse.
En généralisant la preuve du théorème 27.12
Théorème 27.14
Les variables aléatoires X 1 , . . . , X n sur (Ω, P) sont mutuellement indépendantes si et seulement si :
pour tout (x 1 , . . . , x n ) ∈ X 1 (Ω) × · · · × X n (Ω), les événements (X 1 = x 1 ), . . . , (X n = x n ) sont mutuellement
indépendantes.
Théorème 27.15
On considère des variables aléatoires X 1 , . . . , X n sur (Ω, P) mutuellement indépendantes.
NE
• Soit 1 < p < n, les variables aléatoires Y = (X 1 , . . . , Yp ) et Z = (X p+1 , . . . , X n ) sont indépendantes.
• Si f est une fonction à p variables et g à n − p variables, alors f (X 1 , . . . , X p ) et g (X p+1 , . . . , X n ) sont
indépendantes.
3) Applications de l’indépendance
AIG
Théorème 27.16
Si X 1 , . . . , X n n variables aléatoires sur (Ω, P) suivent toutes une même loi de Bernoulli de paramètre
p ∈ [0; 1], et sont mutuellement indépendantes, alors la somme X 1 + · · · + X n suit une loi binomiale de
paramètre n et p.
Preuve : On a X i ,→ B(p), soit X = X 1 + · · · + X n , alors X(Ω) = J0; n K, l’événement ¡ ¢(X = k) se réalise si et seulement si k
des variables X i prennent la valeur 1 et les n − k autres la valeur 0, il y a donc nk cas possibles incompatibles deux à
deux, calculons la probabilité d’un cas : notons X i 1 , . . . , X i k celles qui prennent la valeur 1 et X i k+1 , . . . , X i n les autres alors
du fait de l’indépendance, on a :
P([X i 1 = 1] ∩ · · · ∩ [X i k = 1] ∩ [X i k+1 = 0] ∩ · · · ∩ [X i n = 0]) =
¡n ¢ k P(X i 1 = 1) × · · · × P(X i k = 1) × P(X i k+1 = 0) × · · · × P(X i n = 0) = p k (1 − p)n−k .
n−k
par conséquent P(X = k) = k p (1 − p) .
NT
À retenir
Si X ,→ B(n, p), alors on peut écrire X = X 1 + · · · + X n où les X i sont mutuellement indépendantes et
suivent toutes la loi de Bernoulli de paramètre p. On a donc E(X) = E(X 1 )+· · ·+ E(X n ) = p +· · ·+ p = np.
FExercice 27.9 Soit (Xk )k∈J1;m K m variables aléatoires sur (Ω, P) qui suivent toutes une loi binomiale de paramètre (n k , p)
(respectivement) avec p ∈ [0; 1], et sont mutuellement indépendantes, alors :
X 1 + · · · + X m ,→ B(n 1 + · · · + n m , p).
Solution 27.9 Par récurrence sur m, il suffit de montrer le théorème pour m = 2 : soit Z = X 1 + X 2 , alors Z(Ω) =
J0; n 1 + n 2 K et :
k
P(Z = k) = P([X 1 = i ] ∩ [X 2 = k − i ])
X
i =0
MO
k
P(X 1 = i ) × P(X 2 = k − i ) (indépendance)
X
=
i =0
à ! à ! à !
k n
1 i n 1 −i n 2 k−i n 2 −k+i n
X
= p (1 − p) p (1 − p) (en convenant que = 0 si k > n ou k < 0)
i =0 i k −i k
à ! à !
k n
1 i n 1 −i n 2
p k−i (1 − p)n2 −k+i
X
= p (1 − p)
i =0 i k −i
à !à !
k n n2
1
p k (1 − p)n1 +n2 −k
X
=
i =0 i k −i
à !à !
k n n2
k n 1 +n 2 −k
X 1
= p (1 − p)
i =0 i k −i
à !
n1 + n2 k
= p (1 − p)n1 +n2 −k (formule de Vandermonde)
k
donc X 1 +X 2 ,→ B(n 1 +n 2 , p). Le passage du rang n au rang n +1 se ramène au rang 2 en posant X 02 = X 2 +· · ·+X n+1 .
NE
réciproque est fausse. Le résultat se généralise au produit de n variables aléatoires mutuellement
indépendantes.
E(XY) = E(u(Z)) =
X
u(x, y)P(Z = (x, y)) (théorème de transfert)
(x,y)∈Z(Ω)
= E(X)E(Y)
AIG
une récurrence permet ensuite la généralisation.
FExercice 27.10 Soit X une variable aléatoire qui suit une loi uniforme sur {−1; 0; 1} et Y la fonction indicatrice de
l’événement (X = 0). Montrer que E(XY) = E(X)E(Y) mais que X et Y ne sont pas indépendantes.
Solution 27.10 Ces variables ne sont pas indépendantes, car P([X = 1] ∩ [Y = 1]) = P([X = 1] ∩ [X = 0]) = 0 alors que
P(X = 1) × P(Y = 1) = 19 . D’autre part E(X) = 0, E(Y) = 13 , et E(XY) = 0 car XY est une variable certaine égale à 0, on a donc
E(XY) = E(X)E(Y).
Preuve : D’après la formule de Kœnig-Huygens, V(X + Y) = E([X + Y]2 ) − [E(X) + E(Y)]2 avec la linéarité de l’espérance,
on a donc V(X + Y) = E(X 2 ) + E(Y 2 ) + 2E(XY) − E(X)2 − E(Y)2 − 2E(X)E(Y) = V(X) + V(Y) car les variables aléatoires étant
NT
indépendantes, on a E(XY) = E(X)E(Y). Une récurrence permet ensuite la généralisation.
À retenir
Si X ,→ B(n, p), alors on peut écrire X = X 1 + · · · + X n où les X i sont mutuellement indépendantes et
suivent toutes la loi de Bernoulli de paramètre p. On a donc V(X) = V(X 1 ) + · · · + V(X n ) = p(1 − p) +
· · · + p(1 − p) = np(1 − p).
4) Covariance
Définition 27.17
MO
Soient X et Y deux variables aléatoires réelles sur (Ω, P). On appelle covariance de X et Y le réel défini
par :
cov(X, Y) = E([X − E(X)][Y − E(Y)]).
Remarque 27.18 – C’est l’espérance du produit des variables centrées associées à X et Y. Lorsque Y = X on a
cov(X, X) = V(X) > 0, on dit que la covariance est positive.
NE
Preuve :
• On a [X − E(X)][Y − E(Y)] = XY − E(X)Y − E(Y)X + E(X)E(Y), on applique ensuite la linéarité de l’espérance ce qui donne
la formule ;
• immédiat ;
• On utilise la formule ci-dessus et la linéarité de l’espérance : E([aX+Y]Z)−E(aX+Y)E(Z) = aE(XZ)+E(YZ)−aE(X)E(Z)−
E(Y)E(Z) = acov(X, Z) + cov(Y, Z). Par symétrie on a la linéarité sur la deuxième variable.
• D’après un calcul fait plus haut : V(X + Y) = E([X + Y]2 ) − [E(X) + E(Y)]2 avec la linéarité de l’espérance, on a donc
V(X + Y) = E(X 2 ) + E(Y 2 ) + 2E(XY) − E(X)2 − E(Y)2 − 2E(X)E(Y) = V(X) + V(Y) + 2cov(X, Y).
• On sait que si X et Y sont indépendantes alors E(XY) = E(X)E(Y) ce qui donne cov(X, Y) = 0.
Remarque 27.19 – La covariance est une forme bilinéaire symétrique et positive, mais ce n’est pas un produit
scalaire car V(X) = 0 n’entraîne pas X = 0, mais seulement P(X = m) = 1. On peut cependant établir l’inégalité
de Cauchy-Schwarz pour ce type d’applications, ce qui ce traduit ici par :
AIG
cov(X, Y)2 6 V(X)V(Y) ou encore |cov(X, Y)| 6 σ(X)σ(Y)
FExercice 27.11 On lance deux fois un dé équilibré dans les mêmes conditions, on note S la somme obtenue et D la
différence (premier moins deuxième). Calculer cov(S, D). Les variables aléatoires S et S sont-elles indépendantes ?
Solution 27.11 Soit X le premier résultat et Y le second, alors S = X + Y et D = X − Y, on calcule donc cov(X + Y, X − Y) =
V(X) − cov(X, Y) + cov(Y, X) − V(Y) = 0 car X et Y suivent la même loi uniforme sur J1; 6K. Les deux variables aléatoires ne
sont pas indépendantes car par exemple P([S = 3] ∩ [D = 0]) = 0 alors que P(S = 3) et P(D = 0) ne sont pas nulles.
Théorème 27.20
Si X 1 , . . . , X n sont des variables aléatoires sur (Ω, P) alors :
n
V(X 1 + · · · + X n ) = V(X i ) + 2
P P
cov(X i , Y j ).
i =1 16i < j 6n
Si les variables aléatoires X i sont deux à deux indépendantes, alors :
NT
n
V(X 1 + · · · + X n ) = V(X i ).
P
i =1
Preuve : La deuxième formule découle de la première, et la première se montre par récurrence sur n.
Définition 27.18
Lorsque cov(X, Y) = 0 on sait que les variables aléatoires ne sont pas forcément indépendantes, on dit
qu’elles sont non corrélées.
cov(X,Y)
Plus généralement, lorsque V(X) et V(Y) sont non nuls, on sait que σ(X)σ(Y) ∈ [−1; 1], ce nombre est
appelé coefficient de corrélation entre X et Y.
MO
FExercice 27.12 On suppose que V(X) et V(Y) sont non nuls et le coefficient de corrélation vaut ±1. Montrer qu’il existe
deux réels a et b tel que P(Y = aX + b) = 1, c’est à dire il est presque sûr que Y = aX + b.
Solution 27.12 Reprendre la démonstration du cas d’égalité de Cauchy-Schwarz vue dans les espaces euclidiens en
partant de V(λX + Y) > 0 pour tout réel λ.
FExercice 27.13 Montrer que deux variables de Bernoulli sont indépendantes si et seulement si elles sont non corrélées.
Solution 27.13 Il y a déjà un sens connu : indépendantes implique non corrélées. Supposons X et Y non corrélées
et suivant une loi de Bernoulli de paramètres respectifs p 1 et p 2 , alors XY suit une loi de Bernoulli, de paramètre
p = E(XY) = E(X)E(Y) = p 1 p 2 , par conséquent P([X = 1] ∩ [Y = 1]) = P(X = 1) × P(Y = 1), les événements (X = 1) et (Y = 1)
sont indépendants, donc (X = 0) et (Y = 1) aussi etc. Les deux variables aléatoires sont indépendantes.
AIG
Sommaire
I Intégrale des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
1) Fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
2) Intégrale d’une fonction en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
II Intégrale des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . 280
1) Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
2) Approximation uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
3) Définition de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
4) Premières propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
III Calcul d’une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
1) Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
2) Rappels : techniques de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
IV Propriétés de l’intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
1) Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
NT
2) Sommes de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
V Compléments : recherche de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
1) Fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
2) Fractions rationnelles en sinus et cosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
3) Fractions rationnelles en ch et sh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
4) Fonctions se ramenant aux types précédents . . . . . . . . . . . . . . . . . . . . . . . . 290
5) Polynômes trigonométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
1) Fonctions en escalier
Définition 28.1
Soit f : [a; b] → K une fonction, on dit que f est en escalier sur [a; b] lorsqu’il existe un entier n ∈ N∗ ,
des réels x 0 = a < x 1 < · · · < x n = b, et des nombres c 0 , . . . , c n−1 de K tels que sur chacun des intervalles
ouverts : ]x k ; x k+1 [ la fonction f est constante égale à c k (0 6 k 6 n − 1). On dit aussi parfois que f est
constante par morceaux. L’ensemble des fonctions en escalier sur [a; b] est noté E ([a; b], K).
ZExemples :
– Une fonction constante sur [a; b] est en escalier.
– La fonction partie entière restreinte à [a; b] est en escalier.
NE
1
0
−3 −2 −1 0 1 2 3
−1
−2
−3
−4
AIG
Remarque 28.1 –
– La courbe représentative d’une fonction en escalier a la forme d’un escalier !
– Les réels x 0 = a < · · · < x n = b de la définition constituent ce que l’on appelle une subdivision de l’inter-
valle [a; b]. Une telle subdivision est dite adaptée à la fonction en escalier f lorsque f est constante sur
chacun des morceaux (ouverts) de la subdivision. Il est facile de voir qu’il y a une infinité de subdivisions
adaptées à f lorsque f est en escalier. Le réel max06k 6n−1 x k+1 − x k est appelé le pas de la subdivision.
Lorsque le pas est constant, il vaut b−a n , on dit que la subdivision est régulière.
– La définition ne fait pas intervenir la valeur de f aux points de la subdivision.
– Une fonction en escalier sur [a; b] est bornée.
Définition 28.2
Si σ, σ0 sont deux subdivisions de [a; b], on dit que σ0 est plus fine que σ lorsque les points de la
subdivision σ font partie de la subdivision σ0 , ce que l’on note σ ⊂ σ0 , si de plus σ est adaptée à
NT
f ∈ E ([a; b], K), alors σ0 aussi.
Remarque 28.2 –
– Si σ, σ0 sont deux subdivisions de [a; b], on note σ ∪ σ0 la subdivision obtenue en réunissant les points de
σ avec ceux de σ0 (et en les rangeant dans l’ordre croissant). Cette nouvelle subdivision est plus fine que
les deux précédentes.
– Il en découle que si f et g sont en escalier sur [a; b] alors il existe une subdivision σ de [a; b] qui est à la
fois adaptée à f et à g .
Théorème 28.1
MO
L’ensemble E ([a; b], K) est un K-espace vectoriel (et même une K-algèbre) pour les opérations
usuelles sur les fonctions.
Théorème 28.2
Soit f ∈ E ([a; b], K) et soit σ = (x i )06i 6n une subdivision de [a; b] adaptée à f , alors la quantité :
n−1
P
Iσ ( f ) = (x i +1 − x i )c i ,
i =0
où c i désigne la valeur de f sur l’intervalle ]x i , x i +1 [, est indépendante de la subdivision adaptée à f .
Autrement dit, si σ0 est une autre subdivision adaptée à f , alors Iσ ( f ) = Iσ0 ( f ).
Preuve : Si on rajoute un point d à la subdivision σ, on obtient une nouvelle subdivision σ0 et il existe un indice
j ∈ J0; (n − 1)K tel que d ∈]x j , x j +1 [, mais alors c j (x j +1 − x j ) = c j (d − x j ) + c j (x j +1 − d ), on voit donc que Iσ ( f ) = Iσ0 ( f ).
Par récurrence, on en déduit que si σ0 est une subdivision plus fine que σ, alors Iσ ( f ) = Iσ0 ( f ).
NE
Soit σ0 une autre subdivision de [a; b] adaptée à f , la subdivision σ00 = σ0 ∪ σ est adaptée à f et plus fine que σ et σ0 ,
donc Iσ00 ( f ) = Iσ0 ( f ) = Iσ ( f ).
1
0
−4 d −3 −2 −1 0 1 2 3 4
−1
AIG
−2
Remarque 28.3 – Géométriquement, si f ∈ E ([a; b], K) et si σ est une subdivision de [a; b] adaptée à f , alors
dans un repère orthonormé, la quantité Iσ ( f ) représente l’aire algébrique de la portion de plan délimitée par la
courbe de f , l’axe des abscisses, et les droites d’équation : x = a et x = b, c’est une somme d’aires de rectangles.
changer la valeur de f aux points x 1 , . . . , x n pour obtenir la fonction g , ce qui ne change pas l’intégrale
de f .
1. CHASLES M ICHEL (1793 – 1880) : mathématicien français, auteur d’importants travaux en géométrie.
Définition 28.4
Une fonction f : [a; b] → K est dite continue par morceaux sur le segment [a; b], lorsqu’il existe une
NE
subdivision σ = (a = x 0 , . . . , x n = b) de [a; b] telle que sur chaque morceau ]x k ; x k+1 [ la fonction f est
continue et prolongeable par continuité sur [x k ; x k+1 ] (i.e. f a une limite finie à droite en x k et à
gauche en x k+1 ).
L’ensemble des fonctions continues par morceaux sur [a; b] est noté CM ([a; b], K). Plus généralement,
on dit qu’une fonction est continue par morceaux sur un intervalle I, lorsque sa restriction à tout
segment inclus dans I est continue par morceaux.
ZExemples :
– Une fonction continue sur [a; b] est continue par morceaux.
– Une fonction en escalier sur [a; b] est continue par morceaux.
– La fonction f définie par f (x) = sin( x1 ) sur ]0; 1] et f (0) = 0 n’est pas continue par morceaux sur [0; 1].
AIG −5 −4 −3 −2 −1 0 1
−1
−2
−3
−4
2
1
0
Remarque 28.4 –
NT
– Une fonction continue par morceaux sur [a; b] est bornée.
– La valeur de f aux points de la subdivision n’intervient pas dans la définition.
Théorème 28.4
L’ensemble des fonctions continues par morceaux sur [a; b], CM ([a; b], K), est un K-espace vectoriel
(et même une K-algèbre) pour les opérations usuelles sur les fonctions.
2) Approximation uniforme
MO
Théorème 28.5
Si f : [a; b] → K est continue par morceaux sur le segment [a; b], alors pour tout ε > 0, il existe une
fonction ψ en escalier sur [a; b] telle que | f − ψ| 6 ε, c’est à dire :
∀t ∈ [a; b], | f (t ) − ψ(t )| 6 ε.
Preuve :
• Cas où f est continue : f est uniformément continue sur [a; b] (théorème de Heine), il existe donc un réel α > 0 tel que
j k b−a
pour tout x, y ∈ [a, b], |x − y| < α =⇒ | f (x) − f (y)| < ε. Soit n = 1 + b−a
α , on a alors < α. Découpons l’intervalle
n
b−a
[a; b] en n morceaux de longueur b−a n , on obtient ainsi une subdivision dont les points sont les réels x k = a + k n
pour k ∈ J0; n K. On définit maintenant la fonction g en posant :
(
f (b) si t = b
g (t ) =
f (x k ) si t ∈ [x k ; x k+1 [
il est alors facile de vérifier que pour tout réel t de [a; b], on a | f (t )− g (t )| < ε en distinguant les cas t = b et t ∈ [x k ; x k+1 [,
on a donc | f − g | < ε.
• Cas où f est continue par morceaux : sur chaque morceau ]x k ; x k+1 [ la fonction f est prolongeable par continuité
NE
sur [x k ; x k+1 ] en une fonction f k . On sait alors qu’il existe une fonction g k en escalier sur [x k ; x k+1 ] telle que ∀ t ∈
[x k ; x k+1 ], | f k (t ) − g k (t )| < ε, en particulier ∀ t ∈]x k ; x k+1 [, | f (t ) − g k (t )| < ε.
On construit la fonction g en posant : g (x k ) = f (x k ) et pour t ∈]x k ; x k+1 [, g (t ) = g k (t ). Il est clair que g est en escalier
sur [a; b] et que ∀ t ∈ [a; b], | f (t ) − g (t )| < ε, donc | f − g | < ε.
0
−3 −2 −1 0 1 2 3
C f +ε
−1 Cf
C f −ε
AIG
−2 Cψ
Remarque 28.5 –
– C’est l’uniforme continuité de f qui fait aboutir la démonstration.
– Si f est continue sur [a, b], alors pour tout ε > 0 il existe deux fonctions en escalier φ et ψ telle que
∀ t ∈ [a; b], ψ(t ) 6 f (t ) 6 φ(t ) avec φ(t ) − ψ(t ) < ε.
En effet, on sait qu’il existe une fonction en escalier g telle que | f −g | < ε/2, on a donc pour t ∈ [a; b], g (t )−
ε/2 6 f (t ) 6 g (t ) + ε/2, il suffit donc de prendre ψ = g − ε/2 et φ = g + ε/2.
– Si f ∈ CM ([a; b], K) alors il existe une suite (ψn ) de fonctions en escalier sur [a; b] telle que :
sup | f (x) − ψn (x)| −→ 0.
x∈[a;b] n→+∞
On dit que la suite (ψn ) converge uniformément vers f sur [a; b].
NT
3) Définition de l’intégrale
Théorème 28.6
Soit f ∈ CM ([a; b], K) et soit (φn ) une suite de fonctions en escalier qui converge uniformément vers
f sur [a; b], alors :
• la suite ( [a;b] φn ) converge vers un nombre ` ∈ K ;
R
Preuve : Posons u n = [a;b] φn , soit ε > 0, il existe un entier N ∈ N tel que n > N =⇒ |φn − f | < ε, on en déduit que
R
|φn | < | f |+ε 6 M+ε où M est un majorant de | f |, on a alors |u n | 6 (b − a)(M+ε) : la suite u est bornée, on peut donc en
extraire une suite convergente : u σ(n) → `, mais pour n > N on a |φn − φσ(n) | 6 |φn − f | + | f − φσ(n) | 6 2ε, on en déduit
MO
ce qui précède, la suite (v n ) converge vers un nombre `0 . Soit (g n ) la suite de fonctions en escalier
R définie par g 2n = φn
et g 2n+1 = ψn , il est facile de voir que (g n ) converge uniformément vers f , donc la suite (w n = [a;b] g n ) converge vers
un nombre `00 , or w 2n = u n et w 2n+1 = v n , on en déduit que `00 = ` = `0 .
NE
1
0
−2 −1 0 1 2 3
−1
AIG
F IGURE 28.4: Cas d’une fonction continue
Preuve : Soient (φn ) et (ψn ) deux suites de fonctions en escalier qui convergent uniformément respectivement vers
R voir que la suite (φn + ψn ) converge uniformément vers f + g . D’après la définition,
Rf et g , il est facile de R on a
[a;b] ( f + g ) = lim (φ
[a;b] n + ψ n ), la linéarité étant vérifiée pour les fonctions en escalier, on peut écrire que [a;b] ( f +
n→+∞
g ) = [a;b] φn + [a;b] ψn , le résultat s’obtient alors par passage à la limite. La preuve est du même type pour le second
R R
point.
NT
Remarque 28.6 – Soit f ∈ CM ([a; b], K), posons u = Re( f ) et v = Im( f ). La linéarité de l’intégrale permet
R R R
d’écrire : [a;b] f = [a;b] Re( f ) + i [a;b] Im( f ). On peut donc toujours se ramener à intégrer des fonctions à
valeurs réelles (mais ce n’est pas toujours la meilleure solution). D’autre part, on a établi :
R R R R R R
Re( [a;b] f ) = [a;b] Re( f ) et Im( [a;b] f ) = [a;b] Im( f ), d’où [a;b] f = [a;b] f .
Preuve : Si f est à valeurs positives, on peut construire une suite (φn ) de fonctions en escalier positives, qui converge
MO
Preuve : Si f est continue par morceaux sur [a; b], alors | f | aussi, et si (φn ) est une suite de fonctions en escalier qui
converge uniformément vers f , il est facile de vérifierR que la suite
R (|φn |) est une suite de fonctions en escalier qui
converge uniformément vers | f |, de plus, on sait que | [a;b] φn | 6 [|a;b] |φn |, le résultat s’obtient par passage à la limite.
NE
Preuve : Même type de preuve que pour les résultats précédents.
Preuve : Par l’absurde, supposons f 6= 0, alors il existe t 0 ∈ [a; b] tel que f (t 0 ) > 0, soit ε = f (t 0 )/2, f étant ( continue en
0 si t ∉ [t 1 ; t 2 ]
t 0 , il existe t 1 < t 2 ∈ [a; b] tels que ∀ t ∈ [t 1 ; t 2 ], f (t ) > ε. Soit g la fonction en escalier définie par g (t ) = ,
ε si t ∈ [t 1 ; t 2 ]
alors on g 6 f , donc [a;b] g 6 [a;b] f , or [a;b] g = ε(t 2 − t 1 ) > 0, ce qui est contradictoire, donc f est nulle sur [a; b].
R R R
AIG
Remarque 28.7 – Le théorème ci-dessus est faux si f n’est pas continue sur [a; b], on peut considérer par
(
1 si t = a
exemple la fonction f définie par f (t ) = , cette fonction est positive, non nulle et d’intégrale nulle.
0 sinon
Preuve : Posons h = g − f , alors h est une R fonction en escalier qui coïncide avec la fonction nulle sauf éventuellement
aux points x 1 , . . . , x n , on sait alors que [a;b] h = 0, et la linéarité entraîne alors le résultat.
Convention d’écriture
Si f est continue par morceaux sur un intervalle [a; b], pour x, y ∈ [a; b], on pose :
NT
R
[x;y] f si x < y
Z y
f (t ) d t = 0 si x = y .
x
− R
f si y < x [y;x]
Théorème 28.13
Si f ∈ CM ([a; b], K) alors :
Ry Rx
– ∀ x, y ∈ [a; b], x f (t ) d t = − y f (t ) d t .
Ry Rz Ry
– ∀ x, y, z ∈ [a; b], x f (t ) d t = x f (t ) d t + z f (t ) d t (relation de Chasles généralisée).
MO
1) Primitives
Définition 28.6
Soient f , F : I → C deux fonctions définies sur un intervalle I de R, on dit que F est une primitive de f
sur I lorsque F est dérivable sur I et que F0 = f . L’ensemble des primitives de f sur I est noté P I ( f ).
Remarque 28.8 – D’après le théorème de Darboux, une dérivée vérifie toujours le théorème des valeurs
intermédiaires, par conséquent une fonction f qui ne vérifie pas ce théorème (i.e. une fonction f telle que Im( f )
n’est pas un intervalle), ne peut pas avoir de primitive sur I.
Théorème 28.14
Si f : I → C admet une primitive F sur l’intervalle I, alors P I ( f ) = {F + λ / λ ∈ C}.
NE
Preuve : G ∈ P I ( f ) ⇐⇒ G0 = F0 ⇐⇒ (G − F)0 = 0 ⇐⇒ ∃ λ ∈ C, G = F + λ (car I est un intervalle).
Conséquence
Si f : I → C admet une primitive F sur I, alors ∀ y 0 ∈ C, ∀ t 0 ∈ I, f possède une unique primitive G sur I qui
vérifie G(t 0 ) = y 0 .
AIG
Rt Rt Rt Rt
Preuve : Soit t 1 ∈ I, on a |F(t ) − F(t 1 ) − (t − t 1 ) f (t 1 )| = | t1 f (u) d u − t1 f (t 1 ) d u| = | t1 ( f (u) − f (t 1 )) d u| 6 | t1 | f (u) −
R t ε > 0, f étant continue en t 1 , il existe α > 0 tel que ∀ u ∈ I, |u − t 1 | < α =⇒ | f (u) − f (t 1 )| < ε, donc
f (t 1 )| d u|. On se donne
si |t − t 1 | < α, alors | t1 | f (u) − f (t 1 )| d u| 6 |t − t 1 |ε, d’où :
¯ ¯
¯ F(t ) − F(t 1 )
1 ¯ 6 ε,
¯
¯
¯ t −t − f (t ) ¯
1
on en déduit que F est dérivable en t 1 et que F0 (t 1 ) = f (t 1 ). La fonction F est donc une primitive de f sur I, et il est clair
que F(t 0 ) = y 0 .
(
1 si t = 0
Remarque 28.9 – La continuité de f est essentielle pour la démonstration, prenons f (t ) = , alors
0 sinon
avec t 0 = y 0 = 0, on obtient que F = 0, F est bien dérivable mais ce n’est pas une primitive de f sur [0; 1].
NT
Théorème 28.16 (calcul d’une intégrale)
Si f : I → C est continue sur l’intervalle I et si F désigne une primitive de f sur I, alors :
Rb
∀a, b ∈ I, a f (t ) d t = [F]ba = F(b) − F(a).
Rt Rb
Preuve : F étant une primitive de f , on a ∀ t ∈ I, F(t ) = F(a) + a f (u) d u, d’où F(b) − F(a) = a f (u) d u.
Z b n−1
X
f (t ) d t = Fi (x i +1 ) − Fi (x i ).
a i =0
On peut donc toujours se ramener au cas des fonctions continues et donc à une recherche de primitive.
NE
2) Rappels : techniques de calculs
AIG
ZExemples : R1p
– Soit I = 0 1 − t 2 d t .
On effectue le changement de variable t = sin(u) avec u ∈ [0; π2 ], on a alors d t = cos(u)d u, d’où I =
R π/2 p iπ/2
2 cos(u) d u = π/2 cos(u)2 d u = π/2 1+cos(2u) d u = u + sin(2u)
h
= π4 . En particulier
R R
0 1 − sin(u) 0 0 2 2 4 0
on en déduit que la surface du cercle trigonométrique vaut π.
R π/3
– Soit I = 0 ln(cos(t )) sin(t ) d t .
On effectue le changement de variable u = cos(t ) avec cos : [0; π3 ] → [ 12 ; 1] (C 1 ), on a d u = − sin(t )d t et
R1
donc I = 1/2 ln(u) d u = [u ln(u) − u]11/2 = ln(2)−1
2 .
R1 p
FExercice 28.1 Calculer I = 2
0 t 1− t dt.
2a 3/2
Solution 28.1 La fonction à intégrer est de la forme au 0 u 1/2 et s’intègre donc en 3 u , d’où :
I = [− 31 (1 − t 2 )3/2 ]10 = 13 .
NT
IV PROPRIÉTÉS DE L’INTÉGRATION
1) Inégalités
Preuve : L’application ( f , g ) 7→ a;b f g n’est pas un produit scalaire sur CM ([a; b], R) c’est néanmoins une forme
R
bilinéaire symétrique et positive, on peut donc lui appliquer l’inégalité de Cauchy-Schwarz, dont on rappelle une
MO
preuve :
Posons a = [a;b] f 2 , b = [a;b] f g et c = [a;b] g 2 . Pour tout réel λ on a 0 6 [a;b] (λ f + g )2 (intégrale d’une fonction
R R R R
positive), en développant on obtient par linéarité aλ2 + 2bλ + c > 0. Si a 6= 0 alors on a un trinôme du second degré qui
est toujours positif, donc son discriminant est négatif ou nul, i.e. b 2 − ac 6 0 ce qui donne exactement l’inégalité de
Cauchy-Schwarz. Si a = 0 alors pour tout réel λ on a 2bλ + c > 0 ce qui entraîne b = 0 et donc b 2 6 ac.
R
Dans le cas des fonctions continues sur [a; b], l’application ( f , g ) 7→ a;b f g est un produit scalaire sur
C 0 ([a; b], R), on a donc comme dans tout espace préhilbertien réel :
t
ZExemple : Soit f : [0; 1] → R une fonction C 1 telle que f (0) = 0. Pour t ∈ [0; 1] on a f (t ) = 0 f 0 (u) d u,
R
de classe
2
³ ´
t t t 2 1 2
d’où f (t )2 = 0 f 0 (u) d u 6 0 1 0 f 0 (u) d u , ce qui entraîne f (t )2 6 t 0 f 0 (u) d u, il en découle alors
¡R ¢ ¡R ¢ R R
NE
que :
Z 1 1
Z 1
2 2
f (t ) d t 6 f 0 (u) d u.
0 2 0
AIG
2) Sommes de Riemann
Définition 28.7
Soit f : [a; b] → C une fonction continue par morceaux et n ∈ N∗ , on appelle somme de Riemann 3
d’ordre n associée à f la quantité :
n−1
Rn ( f ) = b−a f (a + k b−a
P
n n ).
k=0
Remarque 28.10 – Soit φ la fonction en escalier sur [a; b] définie par φ(t ) = f (x k ) si t ∈ [x k ; x k+1 [ et φ(b) = f (b),
alors on a Rn ( f ) = [a;b] φ.
R
NT
Théorème 28.24 (limite des sommes de Riemann)
n−1
Soit f : [a; b] → C une fonction continue par morceaux on a : lim b−a (a + k b−a
P R
f n )= [a;b] f.
n→+∞ n k=0
Preuve : On se limite au cas où f est de classe C 1 conformément au programme. Comme f 0 est bornée sur le segment
[a; b], il existe un réel M ∈ R+ tel que ∀t ∈ [a; b], | f 0 (t )| 6 M et donc ∀x, y ∈ [a; b], | f (x) − f (y)| 6 M|x − y| (IAF).
¯ ¯¯n−1 Z x n−1
¯ ¯
¯ ¯n−1
¯
X Z xk+1 X Z xk+1 ¡
¯ Z
¯ ¯ ¯X k+1 ¢ ¯¯
¯R n ( f ) − f ¯¯ = ¯ f (x k ) d t − f (t ) d t ¯ = ¯
¯ ¯
f (x k ) − f (t ) d t ¯
¯ ¯k=0 xk k=0 x k
[a;b] ¯ ¯k=0 xk ¯
n−1
X ¯ xk+1 ¡
¯ Z
¢ ¯ n−1
¯
X xk+1 ¯
Z
¯
6 ¯
¯ f (x k ) − f (t ) d t ¯¯ 6 ¯ f (k k ) − f (t )¯ d t
k=0 xk k=0 x k
MO
n−1
X Z xk+1 n−1
X Z xk+1 b−a
6 M|x k − t | d t 6 M dt
k=0 x k k=0 x k n
n−1 2 2
X (b − a) M(b − a)
6 M =
k=0 n2 n
M(b−a)2
¯ R ¯
on a donc ¯Rn ( f ) − [a;b] f ¯ 6 n → 0.
À retenir
Méthode des rectangles de gauche pour le calcul approché d’une intégrale :
n−1
M(b−a)2
Rn ( f ) = b−a f (a + k b−a près où M = sup | f 0 (t )|.
P R
n n ) est une valeur approchée de [a;b] f à n
k=0 a 6t 6b
3. RIEMANN G EORG F RIEDRICH B ERNHARD (1826 – 1866) : mathématicien allemand dont l’œuvre est colossale.
NE
1
0
−2 −1 0 1 2 3
−1
F IGURE 28.5: Méthode des rectangles de gauche
AIG
Preuve : Même preuve que le théorème précédent, avec la même majoration de l’erreur.
0
−2 −1 0 1 2 3
−1
F IGURE 28.6: Méthode des rectangles de droite
À retenir
NT
La demi-somme des rectangles de gauche et des rectangles de droite est la méthode des trapèzes :
n−1
Tn ( f ) = b−a b−a
P 1 R
n 2 ( f (x k ) + f (x k+1 ) = 2n [ f (a) + 2 f (x 1 ) + · · · + 2 f (x n−1 ) + f (b)] → [a;b] f . On admettra
k=0
(b−a)3
que ¯Tn ( f ) − [a;b] f ¯ 6 M212n où M2 = sup | f 00 (t )|.
¯ R ¯
2
a 6 t 6b
0
−2 −1 0 1 2 3
MO
−1
F IGURE 28.7: Méthode des trapèzes
ZExemples :
n n
P 1 1 P 1
– Étude de certaines suites : soit u n = n+k , on a alors u n = n 1+k/n , c’est la méthode des rectangles
k=1 k=1
1
de droite appliquée à la fonction f : t 7→ 1+t sur l’intervalle [0; 1], la fonction étant continue sur cet
R
intervalle, on a lim u n = [0;1] f = ln(2).
R 2π
– Calcul de certaines intégrales : 0 ln(1 − 2x cos(t ) + x 2 ) d t pour |x| 6= 1 (cf. TD).
Convention : soit f une fonction continue sur un intervalle I, une primitive de f sur I est la fonction
Rx Rx
F : x 7→ a f (t ) d t où a ∈ I est quelconque, ce qui fait que l’on notera simplement F(x) = f (t ) d t .
1) Fonctions usuelles
Fonction Primitive
NE
0 α u α+1
uu α+1 si α 6= −1, ln(|u|) sinon
u0e u eu
u 0 cos(u) sin(u)
u 0 sin(u) − cos(u)
u0
u 0 (1 + t an 2 (u)) = cos2 (u)
tan(u)
u 0 ch(u) sh(u)
u 0 sh(u) ch(u)
u0
u 0 (1 − t h 2 (u)) = th(u)
ch2 (u)
u 0 tan(u) − ln(| cos(u)|)
u 0 tan(u)2 tan(u) − u
u0
arctan(u)
AIG
1+u0 2
pu arcsin(u)
1−u 2
0
pu argsh(u)
1+u 2
0
pu argch(u)
u 2 −1 q¯
u0
argth(u) = ln( ¯ 1+u ¯)
¯
1−u 2 1−u
ZExemples :
1
– Calculer une primitive de f (t ) = sin(t )2 +3 cos(t )2
sur ] − π/2; π/2[.
Rx Rx dt
Solution 28.1 Il s’agit de calculer F(x) = f (t ) d t = 1+2 cos(t ) 2 , d’après la règle de Bioche, on peut poser
2
R tan(x) du
u = tan(t ), ce qui donne d u = (1 + u )d t , et donc F(x) = u 2 +3
, ce qui donne :
1 tan(x)
F(x) = p arctan( p ) + cte.
3 3
MO
1
– Calculer une primitive de f (x) = sin(x) sur ]0; π[.
Rx dt 2
Solution 28.1 Une primitive est F(x) = sin(t ) , posons u = tan(t /2), on a alors 2d u = (1 + u )d t , d’où F(x) =
R tan(x/2) 2(1+u 2 ) R tan(x/2) 1
2u(1+u 2 )
du = u d u = ln(| tan(x/2)|)+ cte.
3) Fractions rationnelles en ch et sh
Soit F(X, Y) une fraction rationnelle à deux indéterminées X et Y, la fonction f (t ) = F(ch(t ), sh(t )) est une
fraction rationnelle en ch et sh. Pour intégrer ce type de fonction, on peut appliquer la règle de Bioche à la
fonction g (t ) = F(cos(t ), sin(t )), c’est à dire en remplaçant ch(t ) par cos(t ) et sh(t ) par sin(t ) :
– Si g (−t )d (−t ) = g (t )d t , alors on peut poser u = ch(t ).
– Si g (π − t )d (π − t ) = g (t )d t , alors on peut poser u = sh(t ).
– Si g (π + t )d (π + t ) = g (t )d t , alors on peut poser u = th(t ).
– Sinon on peut poser u = exp(t ).
NE
ch(t )
R sh(x) du
ch(t )d t et F(x) = 1+u 2
, et donc : F(x) = arctan(sh(x)) + cte.
AIG
5
Z arcsin( 2x−1
p )
5
F(x) = cos(u)2 d u
4
ce qui donne :
5 2x − 1 2x − 1 p
F(x) =
arcsin( p ) + 1 + x − x 2 + cte.
8 5 4
p
– Une fraction rationnelle en t et t 2 − a 2 peut s’intégrer en posant t = ach(u), on obtient alors une
fraction rationnelle en ch(u) et sh(u).
p Rxp
ZExemple : Une primitive de f (x) = x 2 − 1 sur [1; +∞[ est la fonctionp
F(x) = t 2 − 1 d t , on pose t =
R ln(x+ x 2 −1) 2u −2u
ch(u) avec u ∈ [0; +∞[, on a d t = sh(u)d u, et donc F(x) = sh(u)2 d u, or sh2 (u) = e +e4 −2 ,
h 2u −2u iln(x+px 2 −1)
donc F(x) = e −e 8 −4u , ce qui donne après simplifications :
p p
x x 2 − 1 − ln(x + x 2 − 1)
F(x) = + cte.
NT
2
p
– Une fraction rationnelle en t et t 2 + a 2 peut s’intégrer en posant t = ash(u), on obtient alors une
fraction rationnelle en ch(u) et sh(u).
ZExemple : Une primitive de la fonction f (x) = p 1 2 sur R est la fonction F(x) = x p d t 2 , on pose
R
1+x 1+t
R ln(x+px 2 +1) p
t = sh(u), on a d t = ch(u)d u et donc F(x) = 2
d u = ln(x + 1 + x ) + cte.
q q
– Une fraction rationnelle en t et at +b
c t +d peut s’intégrer en posant u = at +b
ct +d , on obtient alors une
fraction rationnelle en u.
ZExemple : Une primitive de f (x) = x−p1x−1 sur [1; +∞[ est la fonction F(x) = x t −p dt
R
d t , on pose
p t −1
p x−1 2ud u 2u
u = t − 1, d’où t = u 2 + 1, donc d t = 2ud u et F(x) = = u2u−1 1
R
u 2 −u+1
. Or u 2 −u+1 2 −u+1 + (u−1/2)2 +3/4 ,
p p
R x−1 du
d’où F(x) = ln(x − x − 1) + 43
MO
p p
p 3 2 x −1−1
F(x) = ln(x − x − 1) + 2 arctan( p ) + cte.
3 3
5) Polynômes trigonométriques
a i , j cos(x)p sin(x)q . Une telle fonction est un cas particulier de
P
Il s’agit des sommes finies du type
p,q
fraction rationnelle en cos et sin, la règle de Bioche peut s’appliquer, mais il y a parfois plus simple, on est en
p q
fait ramené à chercher une primitive de cos(x) sin(x) :
³ ´ ³ ´ p q
e i t +e −i t e i t −e −i t
– Linéarisation : on écrit que cos(t )p = 2 et sin(t )q = 2i , puis on développe.
ZExemple : x cos(t )4 sin(t )2 d t , on a :
R
¶4 µ ¶2
e i t + e −i t e i t − e −i t
µ
− cos(6t ) − 2 cos(4t ) + cos(2t ) + 2
cos(t )4 sin(t )2 = = .
2 2i 32
NE
− + + + cte.
192 64 64 16
– Changement de variable : lorsque l’un des exposants est impair, par exemple p = 2k + 1, on a F(x) =
Rx Rx
cos(t )p sin(t )q d t = cos(t )2k sin(t )q cos(t ) d t , on pose alors u = sin(t ), d’où d u = cos(t )d t et donc
R sin(x)
F(x) = (1 − u 2 )k u q d u, c’est un polynôme en u.
ZExemple : Soit à calculer F(x) = x sin(t )5 d t , on pose u = cos(t ), d’où d u = − sin(t )d t et
R
AIG
NT
MO
AIG
Sommaire
I Éléments propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
3) Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
II Réduction d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
1) Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
2) Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
III Réduction d’une matrice carrée. Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
1) Éléments propres d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
2) Réduction d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
3) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
1) Définitions
Définition 29.1
Soit u ∈ L (E), soit λ ∈ K, on dit que λ est une valeur propre de u si et seulement si il existe un vecteur
x ∈ E non nul, tel que u(x) = λx. Si c’est le cas, on dit que x est un vecteur propre associé à la valeur
propre λ.
– L’ensemble des valeurs propres de u est noté Sp(u) (spectre de u).
– L’ensemble Eλ (u) = {x ∈ E / u(x) = λx} est appelé sous-espace propre de u associé à la valeur propre
λ. On a Eλ (u) = ker(u − λid).
MO
Remarque 29.1 :
– λ ∈ Sp(u) ⇐⇒ Eλ (u) 6= {0} ⇐⇒ u − λid est non injectif.
– 0 est valeur propre de u si et seulement si u est non injectif, auquel cas le sous-espace propre associé est
ker(u).
ZExemples :
– Cas d’une homothétie : l’application u : x 7→ λx admet comme unique valeur propre λ.
1 2 1
3
– Utilisation de la méthode de G AUSS : si mat(u) = 2 2 1 alors :
B
−1 1 0
NE
(1 − λ)x + 2y + z = 0
3
u(x) = λx ⇐⇒ (S λ ) 2x + ( − λ)y + z = 0
2
−x + y − λz = 0
z + 2y + (1 − λ)x = 0
1
⇐⇒ −(λ + )y + (1 + λ)x = 0 [L2 ← L2 − L1 ]
2
(2λ + 1)y − (λ2 − λ + 1)x = 0 [L3 ← L3 + λL1 ]
z + 2y + (1 − λ)x = 0
AIG
1
⇐⇒ −(λ + )y + (1 + λ)x = 0 .
2
(−λ2 + 3λ + 1)x = 0 [L3 ← L3 + 2L2 ]
p p
On en déduit que Sp(u) = {− 12 ; 3+ 2 13 ; 3− 2 13 } (le déterminant du système ci-dessus doit être nul). En
résolvant (S λ ) avec ces valeurs de λ on détermine les sous-espaces propres de u.
2) Premières propriétés
Théorème 29.1
Si x 1 , . . . , x p sont des vecteurs propres de u associés à des valeurs propres λ1 , . . . , λp distinctes, alors la
famille (x 1 , . . . , x p ) est libre.
NT
Preuve : Par récurrence sur p : pour p = 1 il n’y a rien à faire. Supposons le théorème établi au rang p, si x 1 , . . . , x p+1 sont
p+1
des vecteurs propres de u associés à des valeurs propres λ1 , . . . , λp+1 distinctes et si
P
a i x i = 0, alors en appliquant
i =1
p
u − λp+1 id, il reste a i (λi − λp+1 )x i = 0, l’hypothèse de récurrence entraîne que a 1 = . . . = a p = 0, il reste donc
P
i =1
λp+1 x p+1 = 0 et donc λp+1 = 0, le théorème est démontré au rang p + 1.
Application – En dimension n (dim(E) = n), un endomorphisme u ne peut pas avoir plus de n valeurs propres.
Théorème 29.2
Si x est un vecteur propre de u associée à la valeur propre λ et si P(X) ∈ K[X], alors x est un vecteur
propre de P(u) associé à la valeur propre P(λ).
MO
Théorème 29.3
Soit u ∈ L (E) et λ ∈ K, alors λ est valeur propre de u ssi det(u − λid) = 0.
Preuve : Cela découle de l’équivalence : u − λid injective ⇐⇒ u − λid bijective valable en dimension finie.
Remarque 29.2 – u est un automorphisme si et seulement si 0 n’est pas valeur propre de u. Si c’est le cas et si x
est un vecteur propre de u associé à la valeur propre λ, alors x est un vecteur propre de u −1 associé à la valeur
propre λ1 .
NE
3) Polynôme caractéristique
Soient B, soit u ∈ L (E), A = mat(u), soit x ∈ K, alors det(u − xid) = det(mat(u − xid)) = det(A − xIn ). En
B B
ε(σ)b 1σ(1) · · · b nσ(n) ce qui prouve que
P
notant b i j les coefficients de la matrice A − xIn , on a det(u − xid) =
σ∈S n
l’on a un polynôme en x. Comme K est infini, on peut identifier cette fonction polynomiale avec le polynôme
correspondant.
Définition 29.2
La fonction polynomiale x 7→ det(u − xid) est appelée polynôme caractéristique de u et notée Pu (X).
AIG
Remarque 29.3 – Le polynôme caractéristique est souvent noté Pu (X) = det(u − Xid) mais cette notation est
abusive car X n’est pas un scalaire.
Théorème 29.4
λ est valeur propre de u si et seulement si λ est racine du polynôme caractéristique de u, i.e. :
λ ∈ Sp(u) ⇐⇒ Pu (λ) = 0.
Si c’est le cas, alors la multiplicité de λ dans le polynôme Pu (X) est appelée multiplicité de la valeur
propre λ.
i =1 i =1
– Si u est un projecteur de rang r : E = ker(u − id) ⊕ ker(u), donc il existe une base B de E telle que
mat(u) = Jn,n,r , d’où Pu (X) = (1 − X)r (−X)n−r = (−1)n X n−r (X − 1)r . D’où Sp(u) = {1; 0} (si 0 < r < n).
B
– Si u est une symétrie : E = ker(u − id) ⊕ ker(u + id), donc il existe une base B de E telle que mat(u) =
B
1 0 ... ... ... 0
0 . . . . . .
..
.
. . ..
.. .. 1 ... .
, d’où Pu (X) = (1−X)r (−1−X)n−r = (−1)n (X−1)r (X+1)n−r avec r = dim[ker(u−
. ..
. .. ..
. . −1 . .
.. .. ..
. . 0
.
0 . . . . . . . . . 0 −1
id)]. D’où Sp(u) = {±1} (si 0 < r < n).
– Matrice compagnon
: soit P(X) = X n +a
n−1 X
n−1
+· · ·+a 1 X+a 0 ∈ K[X], la matrice compagnon de P est la
0 ··· ··· 0 −a 0
1 . . . .. ..
NE
. .
. . . . .. ..
matrice A = 0
. . . . , montrer que le polynôme caractéristique de l’endomorphisme
. ..
. .. ..
. . . 0 .
0 · · · 0 1 −a n−1
de Kn canoniquement associé à A, est (−1)n P(X) (raisonner par récurrence sur n et développer suivant
la colonne 1).
Théorème 29.5
Si dim(E) = n et u ∈ L (E), alors le polynôme caractéristique de u est de degré n, plus précisément,
Pu (X) = (−1)n X n + (−1)n−1 tr(u)X n−1 + . . . + det(u).
AIG
ε(σ)b 1σ(1) · · · b nσ(n) , le seul terme qui soit
P
Preuve : Soit A la matrice de u dans une base et B = A − xIn , alors Pu (x) =
σ∈S n
de degré n est celui pour lequel σ = idJ1;n K c’est à dire (a 11 − X) . . . (a nn − X) = (−1)n X n − (−1)n−1 tr(A)X n−1 + . . ., comme
les autres termes sont de degré 6 n − 2, on a les deux premiers termes de Pu (X). Quant au terme constant, il s’obtient
en prenant x = 0.
Remarque 29.4 – Le nombre de valeurs propres de u comptées avec leur multiplicité est inférieur ou égal à n,
où n est la dimension de E. D’après le théorème de D’A LEMBERT, lorsque K = C, tout endomorphisme admet
exactement n valeurs propres (comptées avec leur multiplicité).
Solution 29.1
1/ F est stable par u, la divisibilité en découle (on peut raisonner matriciellement).
2/ Soit p ∈ N tel que B = (x 0 , . . . , u p−1 (x 0 )) soit libre et u p (x 0 ) = a 0 + . . . + a p−1 u p−1 (x 0 ), alors B est une base de
F et la matrice de v dans cette base est la matrice compagnon du polynôme X p − a p−1 X p−1 − . . . − a 0 , donc
Pv (X) = (−1)p [X p − a p−1 X p−1 − . . . − a 0 ], le résultat en découle.
3/ Pu (u)(x 0 ) = R(u) ◦ Pv (u)(x 0 ) = 0, ceci étant vrai pour tout vecteur x 0 de E on a bien Pu (u) = 0.
MO
1) Diagonalisation
Définition 29.3
On dit que u ∈ L (E) est diagonalisable si et seulement si il existe une base B = (e 1 , . . . , e n ) de E
constituée de vecteurs propres de E. Si c’est le cas, alors la matrice de u dans cette base est mat(u) =
B
diag(λ1 , . . . , λn ) où λi et la valeur propre associée au vecteur propre e i .
Remarque 29.5 – Sur la diagonale de cette matrice on a toutes les valeurs propres de u, on en déduit que la
somme des valeurs propres est tr(u) et que le produit des valeurs propres est det(u) [si u est diagonalisable !].
Remarque 29.6 – u est diagonalisable si et seulement si il existe une base de E dans laquelle la matrice de u
est diagonale.
NE
ZExemples :
– Une projection est diagonalisable.
– Une symétrie est diagonalisable.
– L’application u ∈ L (K2 ) définie par u(x, y) = (2x + y; x + 2y) est diagonalisable. En effet : Pu (X) =
(2 − X)2 − 1 = (1 − X)(3 − X), donc les valeurs propres sont 1 et 3. Un vecteur propre associé à 1 est
e 1 = (1; −1; ) et un vecteur propre associé à 3 est e 2 = (1; 1). La famille B = (e 1 , e 2 ) est libre, c’est une
µ ¶
1 0
base de K2 et mat(u) = .
B 0 3
Théorème 29.7
Si u ∈ L (E) admet n valeurs propres distinctes (où n = dim(E)), alors u est diagonalisable (réciproque
fausse).
AIG
Preuve : Soit λ1 , . . . , λn ces valeurs propres et e 1 , . . . , e n des vecteurs propres respectivement associés, alors on sait que
la famille (e 1 , . . . , e n ) est libre, c’est donc une base de E et u est diagonalisable.
La réciproque est fausse : prendre par exemple id.
Remarque 29.7 – Il y a des endomorphismes qui ne sont pas diagonalisables, par exemple u : (x, y) 7→ (x + y, y)
admet une valeur propre double 1, si u était diagonalisable on aurait alors u = id : absurde.
Preuve : D’après le théorème de Bezout il existe deux polynômes S et T tels que SP + TQ = 1, ce qui donne S(u) ◦
NT
P(u) + T(u) ◦ Q(u) = idE . Soit x ∈ ker(P(u) ◦ Q(u)), alors x = idE (x) = S(u) ◦ P(u)(x) + T(u) ◦ Q(u)(x), en remarquant que
le premier vecteur est dans ker(Q(u)) et le suivant dans ker(P(u)) (car les polynômes en u commutent pour la loi ◦),
on montre que ker(P(u) ◦ Q(u)) ⊂ ker(P(u)) + ker(Q(u)). D’autre part il est clair que ker(Q(u)) ⊂ ker(P(u) ◦ Q(u)) et que
ker(P(u)) ⊂ ker(P(u) ◦ Q(u)), par conséquent ker(P(u)) + ker(Q(u)) ⊂ ker(P(u) ◦ Q(u)). Il reste à montrer que la somme
est directe :
Soit x ∈ ker(P(u)) ∩ ker(Q(u)), on sait que x = S(u) ◦ P(u)(x) + T(u) ◦ Q(u)(x), or ces deux vecteurs sont nuls, donc
x = 0 ce qui termine la preuve.
Remarque 29.8 – Ce théorème se généralise par récurrence sur le nombre de facteurs : si P = P1 · · · Pr où les
polynômes Pi sont premiers entre eux deux à deux, alors :
Théorème 29.9
u ∈ L (E) est diagonalisable si et seulement si il existe P(X) ∈ K[X] un polynôme annulateur de u
scindé à racines simples.
Preuve : Si u est diagonalisable, alors il existe une base B = (e 1 , . . . , e n ) constituée de vecteurs propres de u, notons
λ1 , . . . , λp les valeurs propres distinctes de u, alors il est facile de vérifier sur la base B que le polynôme P(X) =
(X − λ1 ) . . . (X − λp ) annule u.
Réciproquement : si on a un polynôme annulateur (que l’on peut supposé unitaire) scindé à racines simples :
Q(X) = (X − a 1 ) · · · (X − a r ) où les a i sont distincts deux à deux. D’après le lemme des noyaux, E = ker(Q(u)) = ker(u −
a 1 id) ⊕ · · · ⊕ ker(u − a r id), soit Bi une base de ker(u − a i id) (si ce noyau est réduit à {0} alors on le retire de la somme ce
qui ne change pas celle-ci). La réunion B = B1 ∪ · · · ∪ Br est donc une base de E et chacun de ses vecteurs est non nul
et appartient à un des ker(u − a i id), ce sont donc tous des vecteurs propres de u : u est diagonalisable.
ZExemples :
– Le polynôme X 2 − X annule tout projecteur, donc tout projecteur est diagonalisable.
– Le polynôme X 2 − 1 annule toute symétrie, donc toute symétrie est diagonalisable.
2) Trigonalisation
NE
Définition 29.4
On dit que u ∈ L (E) est trigonalisable lorsqu’il existe une base de E dans laquelle la matrice de u est
triangulaire.
Remarque 29.9 :
– Sur la diagonale de cette matrice on doit avoir les valeurs propres de u ce qui implique que u admette n
valeurs propres c’est à dire Pu (X) est scindé sur K.
– Diagonalisable entraîne trigonalisable (réciproque fausse).
Théorème 29.10
u ∈ L (E) est trigonalisable si et seulement si Pu (X) est scindé sur K (i.e. u admet n valeurs propres
AIG
dans K).
Preuve : Si u est trigonalisable, alors il existe une base dans laquelle la matrice de u est triangulaire. Soient λ1 , . . . , λn les
coefficients de la diagonale de cette matrice (non nécessairement distincts deux à deux), alors on sait que le polynôme
n
Q
caractéristique de u est Pu (X) = (λi − X), il est donc scindé.
i =1
Pour la réciproque, elle se fait par récurrence sur n : pour n = 1 il n’y a rien à faire. Supposons le théorème démontré
au rang n et supposons E de dimension n + 1 avec Pu (X) scindé sur K. Soit λ une valeur propre de u et e 1 un vecteur
propre
associé, on construit une base B de E en complétant (e 1 ) et la matrice de u dans cette base est de la forme :
λ ∗ ... ∗
0 a . . . a 1,n
11
M= .. .
. .. , on a alors Pu (x) = (λ − x) det(A − xIn ), on en déduit que le polynôme det(A − xIn ) est scindé
. . .
0 a n,1 . . . a n,n
sur K, donc l’endomorphisme de F = Vect [e 2 , . . . , e n+1 ] associé à la matrice A est trigonalisable (HR) : Q−1 AQ = T ce qui
λ ∗
µ ¶ µ ¶
1 O
NT
entraîne P −1 MP = matrice triangulaire en prenant P = , ce qui signifie que dans une certaine base
O T O Q
(avec P comme matrice de passage) la matrice de u est une matrice triangulaire.
Remarque 29.10 – Lorsque K = C, tout endomorphisme est trigonalisable. La somme des valeurs propres est
la trace de l’endomorphisme, et le produit des valeurs propres est son déterminant.
ZExemples :
– Un endomorphisme u non nul et nilpotent (∃p ∈ N∗ , u p = 0) est trigonalisable mais non diagonalisable,
plus précisément, il existe une base dans laquelle la matrice de u est triangulaire avec des 0 sur la
diagonale.
– Soit u : K2 → K2 définie par u(x, y) = (3x + y; −4x − y), le polynôme caractéristique de u est Pu (X) =
(X − 1)2 , 1 est la seule valeur propre mais u 6= id donc u n’est pas diagonalisable, par contre u est
trigonalisable, un vecteur propre associé à 1 est e 1 = (−1; 2), prenons e 2 = (0; 1) alors B0 = (e 1 , e 2 ) est
MO
µ ¶
2 1 −1
une base de K et mat(u) = .
B0 0 1
Définition 29.5
Si λ est valeur propre de u de multiplicité m (i.e. racine de Pu (X) de multiplicité m), alors on appelle
sous espace caractéristique de u associé à λ le s.e.v ker([u − λidE ]m ).
Théorème 29.11
– Le sous espace caractéristique associé à λ contient le sous espace propre associé à λ.
– Les sous espaces caractéristiques de u sont en somme directe et stables par u.
NE
ker(Pu (u)) = ker([u − λ1 idE ]m1 ) ⊕ · · · ⊕ ker([u − λp idE ]m p )
Si x ∈ ker([u − λidE ]m ), alors (u − λ)m ◦ u(x) = u ◦ (u − λidE )m (x) = 0, donc u(x) ∈ ker([u − λidE ]m ).
On sait d’après le théorème de Cayley-Hamilton que Pu (u) = 0 et donc :
Autrement dit, E est la somme directe des sous-espaces caractéristiques de u. Soit v la restriction à F =
ker([u − λ1 idE ]m1 ), alors on peut écrire v = λidF + w avec w = (v − λidF ), w est un endomorphisme nilpotent
de F, donc il existe une base B1 de F dans la quelle la matrice de w est triangulaire avec des 0 sur la diagonale,
donc dans cette base la matrice de v est triangulaire avec λ1 sur la diagonale. On procède ainsi pour chaque
sous espace caractéristique, on pose alors B = B1 ∪ · · · ∪ Bp , c’est une base de
E dans laquelle la matrice
AIG
T1 (0) · · · (0)
.. ..
(0) T2 . .
de u est triangulaire (et même triangulaire par blocs) : .
.. ..
. Notons d i la dimension de
..
. . (0)
(0) · · · (0) Tp
λi ∗ · · · ∗
0 . . . . . . ...
ker([u − λi idE ]mi ), alors Ti = . ∈ Mdi (K), mais alors le polynôme caractéristique de u est
. .. ..
. . . ∗
0 · · · 0 λi
p p
Pu (X) = (λi − X)di , or Pu (X) = (λi − X)mi , par conséquent on a montré :
Q Q
i =1 i =1
NT
Théorème 29.12
p
Soit u ∈ L (E) et Pu (X) = (λi − X)mi son polynôme caractéristique supposé scindé sur K, alors
Q
i =1
– la dimension de chaque sous espace caractéristique ker([u − λi id]mi ) est exactement m i , la multi-
plicité de λi .
– la dimension du sous espace propre Eλi est inférieure ou égale à m i .
– u est diagonalisable ⇐⇒ chaque sous-espace propre Eλi est de dimension m i ⇐⇒ chaque sous-
espace propre Eλi est égal au sous-espace caractéristique ker([u − λi id]mi ).
Remarque 29.11 – Dans la pratique, un endomorphisme est diagonalisable si et seulement si la somme des
dimensions des sous-espaces propres est égale à la dimension de l’espace.
MO
Définition 29.6
Soit A ∈ Mn (K) et u A l’endomorphisme de Kn canoniquement associé à A.
– On dit que λ ∈ K est valeur propre de A lorsque λ est valeur propre de u A , on note Sp(A) = Sp(u A )
(spectre de A).
– On dit que X ∈ Mn,1 (K) est un vecteur propre de A associé à la valeur propre λ si et seulement si X
est non nul et AX = λX.
– Le sous-espace propre de A associé à la valeur propre λ est Eλ (A) = {X ∈ Mn,1 (K) / AX = λX}.
Remarque 29.12 :
– En identifiant Mn,1 (K) et Kn , les vecteurs propres de A sont les vecteurs propres de u A [idem avec les
sous-espaces propres ].
NE
– On a les mêmes propriétés que pour les éléments propres d’un endomorphisme.
– Si u ∈ L (E) avec E un K-espace de dimension n, si A est la matrice de u dans une base B de E, alors
Sp(u) = Sp(A) et : x ∈ Eλ (u) ⇐⇒ CoordB (x) ∈ Eλ (A).
– On a les équivalences :
Définition 29.7
AIG
La fonction polynomiale : x 7→ det(A − xIn ) est appelée polynôme caractéristique de A et notée PA (X).
Remarque 29.13 – Si u ∈ L (E) avec E un K-espace de dimension n, si A est la matrice de u dans une base B
de E, alors Pu (X) = PA (X). On retrouve donc les mêmes propriétés que pour le polynôme caractéristique d’un
endomorphisme. En particulier :
– Deux matrices semblables ont le même polynôme caractéristique.
– λ est valeur propre de A si et seulement si PA (λ) = 0.
– PA (X) = (−1)n X n + (−1)n−1 tr(A)X n−1 + . . . + det(A).
– Le polynôme PA (X) annule la matrice A [théorème de C AYLEY-H AMILTON].
– Une matrice et sa transposée ont le même polynôme caractéristique car t [A − xIn ] = t (A) − xIn [et deux
matrices transposées ont le même déterminant].
NT
2) Réduction d’une matrice carrée
Définition 29.8
Soit A ∈ Mn (K), on dit que :
– A est diagonalisable, si et seulement si A est semblable à une matrice D diagonale, i.e. :
∃P ∈ GLn (K), P −1 AP = D.
∃P ∈ GLn (K), P −1 AP = T.
MO
Remarque 29.14 – Si u ∈ L (E) avec E un K-espace de dimension n, si A est la matrice de u dans une base B
de E, alors A est diagonalisable si et seulement si u est diagonalisable [idem avec trigonalisable]. On retrouve
donc les mêmes propriétés que pour la réduction des endomorphismes. En particulier :
– A est diagonalisable si et seulement si il existe un polynôme annulateur de A (non nul), scindé sur K et à
racines simples.
– A est diagonalisable si et seulement si la somme des dimensions des sous-espaces propres est égale à la
taille de A.
– A est trigonalisable si et seulement si le polynôme caractéristique de A est scindé sur K.
3) Applications
∗ Calcul de la puissance n-ième d’une matrice :
Si A ∈ Mn (K) est diagonalisable alors il existe P ∈ GLn (K) telle que P −1 AP = diag(λ1 ; . . . , λn ) d’où Ap =
p p
Pdiag(λ1 , . . . , λn )P −1 .
u n+1 = 2u n + v n + w n
NE
FExercice 29.2 Déterminer les suites réelles vérifiant : v n+1 = u n + 2v n + w n .
w n+1 = u n + v n + 2w n
2 1 1 un
Solution 29.2 En posant A = 1 2 1, et X n = v n , on a X n+1 = AX n , d’où X n = An X 0 . On est ramené à déterminer
1 1 2 wn
1 1 0
An . On voit que AX 1 = 4X 1 avec X 1 = 1, que AX 2 = X 2 avec X 2 = −1 et AX 3 = X 3 avec X 3 = 1 donc A est
1 0 −1
n
4 + 2 4n − 1 4n − 1
1 1 0
diagonalisable et P −1 AP = diag(4, 1, 1) avec P = 1 −1 1 d’où An = Pdiag(4n , 1, 1)P −1 = 13 4n − 1 4n + 2 4n − 1.
1 0 −1 4n − 1 4 n − 1 4 n + 2
On en déduit ensuite les expressions.
AIG
∗ Résolution de systèmes différentiels linéaires :
0
x = 4x − 3z
FExercice 29.3 Déterminer les fonctions x, y, z C sur R telles que y 0 = x − y + z .
∞
0
z = 2x − y
x 4 0 −3 1
Solution 29.3 On a X 0 = AX en posant X = y et A = 1 −1 1 . On voit que AU1 = U1 avec U1 = 1, on a
z 2 −1 0 1
E1 (A) = Vect [U1 ], la somme des deux autres valeurs propres vaut S = 2 et le produit P = 1, donc elles sont égales à 1
0 0 1 0 0
(i.e. PA (X) = (1 − X)3 ). On en déduit que A est seulement trigonalisable, si on pose U2 = 2, U3 = 1 et P = 1 2 1,
1 0 1 1 0
3
1 −3 0
a
a = (α − 3βt + γt 2 )e t
2
alors P −1 AP = 0 1 −1 = T. Avec Y = P −1 X = b l’équation devient Y 0 = TY, on obtient b = (β − γt )e t ,
NT
0 0 1 c
c = γe t
les solutions du système initial sont ensuite données par la relation X = PY.
∗ Résolution d’équations matricielles :
6 −1 −1
FExercice 29.4 Résoudre l’équation V 2 = A avec A = 2 3 −1.
−2 1 5
1 0
Solution 29.4 Les valeurs propres de A sont 4 et 6 avec E4 (A) = Vect [U1 , U2 ] où U1 = 1 et U2 = −1, E6 (A) = Vect [U3 ]
1 1
1 1 0 1 4 0 0
où U3 = 1 . On en déduit que A est diagonalisable, soit P = 1 −1 1 , on a P −1 AP = D = 0 4 0 = Y 2 en po-
−1 1 1 −1 0 0 6
MO
sant Y = P −1 VP. La matrice V est diagonalisable car le polynôme (X 2 −4)(X 2 −6) annule V et il est scindé à racines simples.
p
µ ¶
B 0
Les s.e.v. E4 (A) et E6 (A) « sont stables par V », donc U3 est un vecteur propre de V associé à ± 6 et Y = p
0 ± 6
µ ¶
±1 0
avec B2 = 4I2 donc 12 B est une matrice de symétrie, elle est donc de la forme B = 2Q−1 Q avec Q ∈ GL2 (K)
0 ±1
µ ¶
0
−1 ±1
2Q Q (0)
(quelconque), puis on en déduit les solutions pour V avec la relation V = PYP −1 = P 0 ±1
p
P −1 .
(0) ± 6
AIG
NT
MO
1 Éléments de logique 1
I Notions ensemblistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1) Vocabulaire lié aux ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
AIG
II Notions de logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1) Propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2) Connecteurs logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4) Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
5) Retour sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
III Le raisonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1) Raisonnement par l’absurde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2) Raisonnement par analyse-synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3) Démontrer une implication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4) L’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
5) La récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Nombres complexes 11
NT
I Écriture algébrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1) L’ensemble des complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2) Partie réelle, partie imaginaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3) Conjugué d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
II Module d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2) Équation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
III Forme trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1) Le groupe unité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2) Exponentielle d’un imaginaire pur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3) Argument d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4) Racines nes d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
MO
IV Exponentielle complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2) Formules d’Euler et de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
V Représentation géométrique des complexes, applications . . . . . . . . . . . . . . . . . . . . . . 19
1) Affixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2) Distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3) Angles orientés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4) Similitudes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Calculs algébriques 22
I Sommes et produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2) Changement d’indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4) Sommes doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
II Binôme de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1) Factorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2) Coefficients binomiaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
NE
3) Formule du binôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
III Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2) Interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3) Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4 Fonctions usuelles 31
I Fonctions logarithme et exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1) Logarithme népérien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2) La fonction exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
II Fonctions puissances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
AIG
1) Puissance quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2) Croissance comparée de ces fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
III Fonctions circulaires - Inversions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1) Fonctions circulaires : rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2) Inversion des fonctions circulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
IV Fonctions hyperboliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2) Trigonométrie hyperbolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6 Équations différentielles 51
I Équations différentielles linéaires du premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
MO
7 Applications - Relations 59
I Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
NE
2) Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3) Famille d’éléments d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
II Injection, surjection, bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
1) Injection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2) Surjection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3) Bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
III Images directes, images réciproques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
IV Relations binaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
AIG
2) Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3) Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
8 Nombres réels 70
I L’ensemble des réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1) Rappels sur les rationnels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2) Opérations et ordre sur les réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
II Borne inférieure, borne supérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
1) Propriété fondamentale de l’ensemble des réels . . . . . . . . . . . . . . . . . . . . . . . . 71
2) Intervalles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3) La droite numérique achevée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4) Voisinages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
III Approximation d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
1) Valeur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
NT
2) Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3) Approximations décimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
9 Suites numériques 79
I Suites réelles, généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2) Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3) Opérations sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
II Suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3) Convergence et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
MO
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
2) Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
NE
10 Arithmétique 90
I Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1) La propriété fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2) La division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3) Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4) Diviseurs communs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
II Éléments premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
1) Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2) Conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
III Le plus grand diviseur commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
AIG
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3) Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
IV Le plus petit multiple commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
V Nombres premiers, décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
2) Décomposition en facteurs premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3) Notion de valuation p-adique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
12 Continuité 110
I Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
2) Théorèmes généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
II Fonctions continues sur un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
1) Théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
2) Continuité sur un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3) Uniforme continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
III Continuité et fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
1) Image d’un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2) Monotonie et continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
NE
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
13 Dérivation 117
I Dérivée première . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
2) Théorème généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3) Dérivabilité à gauche et à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4) Dérivée d’une bijection réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
II Applications de la dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
1) Théorème de Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
2) Les accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
AIG
3) Sens de variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
III Dérivées successives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
1) Classe d’une application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
2) Formule de Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3) Classe d’une composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
4) Classe d’une réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
3) Classe d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
16 Polynômes 140
I Ensemble des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
NE
2) Opérations sur les polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
II Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
1) Degré d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
2) Algorithme de la division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
3) Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
III Fonctions polynomiales, racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
1) Substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
2) Fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
3) Racines d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
4) Corps algébriquement clos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5) Relations racines coefficients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
AIG
IV Formule de Taylor des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
1) Dérivation des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
2) Formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
NE
1) Forme de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
2) Calcul des éléments simples de seconde espèce . . . . . . . . . . . . . . . . . . . . . . . . 168
VI Applications de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
1) Calcul de la dérivée n-ième d’une fraction . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
2) Primitives d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
AIG
4) Sous-espaces vectoriels d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . 171
II Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
1) Définition, noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
3) S.e.v. et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
III S.e.v. d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
1) Sous-espace engendré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
2) Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
3) Sommes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
4) S.e.v. supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
IV Projections, symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
1) Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
2) Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
NE
3) Séries obtenues par une formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4) Développement décimal d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
22 Matrices 204
I Matrices, liens avec les applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
2) Structure d’espace vectoriel sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 206
3) Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
II Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
2) Retour aux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
AIG
3) Propriétés du produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
III Matrices carrées inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
2) Retour aux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
IV Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
1) Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
2) Formules du changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
3) Changement de bases et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . 216
4) Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
V Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
2) Propriétés du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
VI Opérations élémentaires sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
NT
2) Calcul pratique du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
3) Calcul pratique de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
23 Dénombrement 224
I Cardinal d’un ensemble fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
1) Rappels : injections, surjections, bijections, permutations . . . . . . . . . . . . . . . . . . 224
2) Ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
3) Propriétés du cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
II Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1) Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
2) Le nombre d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
3) Le nombre de parties d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
MO
NE
2) Indépendance d’une famille d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
25 Déterminants 239
I Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
1) Décomposition des permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
2) Signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
II Applications n-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2) Développement suivant une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
III Déterminant dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
1) Formes n-linéaires en dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
AIG
2) Déterminants de n vecteurs dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
3) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
IV Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
2) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
V Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
2) Propriétés du déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . 246
3) Développement suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . . 246
4) Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
VI Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
1) Géométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
2) Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
3) Orientation d’un espace vectoriel réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
NT
26 Espaces euclidiens 252
I Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
2) Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
3) Bases orthonormales dans un euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
4) Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
5) Distance d’un vecteur à un s.e.v . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
6) Hyperplans affines dans un euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
II Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
2) Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
MO
NE
3) Cas des lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
IV Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
2) Indépendance de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
3) Applications de l’indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
4) Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
AIG
II Intégrale des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
1) Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
2) Approximation uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
3) Définition de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
4) Premières propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
III Calcul d’une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
1) Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
2) Rappels : techniques de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
IV Propriétés de l’intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
1) Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
2) Sommes de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
V Compléments : recherche de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
1) Fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
2) Fractions rationnelles en sinus et cosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
NT
3) Fractions rationnelles en ch et sh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
4) Fonctions se ramenant aux types précédents . . . . . . . . . . . . . . . . . . . . . . . . . 290
5) Polynômes trigonométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290