1
TABLE DES MATIÈRES MP 2020-21
4 Topologie 45
4.1 Notions topologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.1 Voisinages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.2 Ouverts et fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.3 Adhérence d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1.4 Caractérisation séquentielle de l’adhérence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.5 Intérieur d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.6 Liens entre adhérence et intérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.7 Frontière d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.8 Topologie induite sur une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2 Étude locale d’une application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.1 Limite en un point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.2 Opérations sur les limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2.3 Caractérisation séquentielle de l’existence d’une limite d’une fonction . . . . . . . . . . . . . . . 51
4.2.4 Relations de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.5 Applications continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.6 Image réciproque d’un ouvert ou d’un fermé par une application continue . . . . . . . . . . . . 52
4.2.7 Homéomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.8 Continuité uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3 Applications linéaires continues, bilinéaires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.1 Caractérisation des applications linéaires continues . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.2 Caractérisation de la continuité d’une application bilinéaire . . . . . . . . . . . . . . . . . . . . 55
4.3.3 Norme d’une application linéaire continue – HORS-PROGRAMME . . . . . . . . . . . . . . . 55
4.3.4 Algèbre normée unitaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5 Éléments propres 57
5.1 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.1 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.2 Sous-espace vectoriel stable par un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.3 Caractérisation matricielle de la stabilité d’un SEV . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.4 Endomorphisme diagonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.1.5 Endomorphisme trigonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.2 Polynômes d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.1 Morphisme P 7→ P (u) ; noyau et image de ce morphisme . . . . . . . . . . . . . . . . . . . . . . 59
5.2.2 Polynôme caractéristique d’un endomorphisme d’un EV de dimension finie . . . . . . . . . . . 61
5.2.3 Théorème de décomposition des noyaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.3 Éléments propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.3.1 Valeurs propres et vecteurs propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 62
5.3.2 Sous-espaces propres associés à des valeurs propres distinctes . . . . . . . . . . . . . . . . . . . 63
5.3.3 Valeurs propres et polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.3.4 Polynôme caractéristique et sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.3.5 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
17 Convexité 195
17.1 Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
17.1.1 Définitions et propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
17.1.2 Translations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
17.1.3 Intersection et paralléllisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
17.2 Barycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
1.1.2 Associativité
Définition 1.4 : LCI associative
La LCI ∗ est associative lorsque : ∀(x, y, z) ∈ E 3 , (x ∗ y) ∗ z = x ∗ (y ∗ z).
Conséquence :
Lorsque ∗ est associative, l’écriture x ∗ y ∗ z a un sens, elle n’est plus ambigüe. De même pour x1 ∗ · · · ∗ xn = ∗ni=1xi.
Exemple 1.5 :
1. L’application ∪ : P(E)2 → P(E), (X, Y ) 7→ X ∪ Y , est une LCI associative.
En effet ∀(X, Y, Z) ∈ P(E)3 , (X ∪ Y ) ∪ Z = X ∪ (Y ∪ Z).
x+y
2. L’application ∗ : Q2 → Q, (x, y) 7→ , est une LCI non associative car, pour (x, y, z) ∈ Q3 :
2
x+y
(x ∗ y) + z 2 +z x + y + 2z x + (y ∗ z) x + y+z
2 2x + y + z
(x ∗ y) ∗ z = = = , x ∗ (y ∗ z) = = = .
2 2 4 2 2 4
11
1.1. LOI DE COMPOSITION INTERNE (RAPPELS DE MPSI) MP 2020-21
1.1.3 Commutativité
Définition 1.6 : LCI commutative
La LCI ∗ est commutative lorsque : ∀(x, y) ∈ E 2 , x ∗ y = y ∗ x.
Exemple 1.7 :
1. L’application ∩ : P(E)2 → P(E), (X, Y ) 7→ X ∩ Y , est une LCI commutative.
2. La soustraction dans Z est une LCI non commutative.
Exemple 1.9 :
1. 0 est élément neutre pour la LCI + dans Z.
2. Pour la LCI ∗ : N2 → N, (x, y) 7→ y :
• tout élément x de N est neutre à gauche car ∀y ∈ N, x ∗ y = y ;
• aucun élément y de N n’est neutre à droite, car x ∗ y = x n’est vrai que pour x = y mais pas pour tout x.
3. Pour la LCI ÷ : (R∗ )2 → R∗ , (x, y) 7→ x/y, il n’y a pas de neutre à gauche et 1 est l’unique neutre à droite.
Exemple 1.12 :
1. Reprenons la LCI ∗ sur N définie par x ∗ y = y. Soit a ∈ N.
• Éléments réguliers à gauche.
Soit (x, y) ∈ N2 tel que a ∗ x = a ∗ y ; alors par définition de ∗ on a x = y. Ainsi tout élément a de N est
régulier à gauche pour ∗.
• Éléments réguliers à droite.
Soit (x, y) ∈ N2 tel que x ∗ a = y ∗ a ; alors par définition de ∗ on a x ∗ a = y ∗ a = a mais ceci n’implique
pas que x = x0 (par exemple si on fixe a priori x 6= x0 ). Donc aucun élément a de N n’est régulier à droite
pour ∗.
2. La multiplication R2 → R, (x, y) 7→ xy, est une LCI commutative et associative. Elle admet pour éléments
réguliers tous les réels non nuls car :
1
Attention : L’écriture x−1 ne signifie pas inverse au sens des nombres réels ; ainsi n’a en général aucun sens !
x
Remarque 1.15 :
On peut aussi définir les éléments symétrisables à gauche (x ∗ x0 = e) ou à droite (x0 ∗ x = e).
Exemple 1.16 :
1. Pour la LCI définie par x ∗ y = x + y dans Z, l’élément neutre est 0 et tout élément est symétrisable d’inverse
son opposé : ∀x ∈ Z, x + (−x) = (−x) + x = 0.
p
2. Sur R+ considérons la LCI ∗ définie par x ∗ y = x2 + y 2 .
(a) La loi ∗ est commutative.
(b) La loi ∗ est associative car pour tout (x, y, z) ∈ R3+ :
p p
(x ∗ y) ∗ z = (x ∗ y)2 + z 2 = x2 + y 2 + z 2 ,
p p
x ∗ (y ∗ z) = x2 + (y ∗ z)2 = x2 + y 2 + z 2 .
(c) La loi ∗ admet 0 pour élément neutre. Soit en effet a dans R+ ; alors :
p
∀x ∈ R+ , x ∗ a = x ⇐⇒ ∀x ∈ R+ , x2 + a2 = x ⇐⇒ ∀x ∈ R+ , x2 + a2 = x2 ⇐⇒ a = 0.
(d) Tout élément est régulier pour ∗. Soit en effet a ∈ R+ et (x, x0 ) ∈ R2+ . Alors :
p p
a ∗ x = a ∗ x0 ⇒ a2 + x2 = a2 + x02 ⇒ a2 + x2 = a2 + x02 ⇒ x2 = x02 ⇒ x = x0 .
(e) Le
√ seul élément symétrisable est 0 et son inverse est 0. Soit en effet (x, x0 ) ∈ R2+ tel que x ∗ x0 = 0 ; alors
2 02 0
x + x = 0 donc x = x = 0.
1.1.7 Distributivité
On considère deux LCI ∗ et > (« truc ») sur E.
Définition 1.18 : LCI distributive
1. On dit que > est distributive à gauche (resp. à droite) sur ∗ (ou par rapport à ∗) lorsque :
2. On dit que > est distributive sur ∗ lorsque > est distributive à gauche et à droite sur ∗.
Exemple 1.19 :
1. La multiplication est distributive par rapport à l’addition dans C.
2. La loi ∪ est distributive par rapport à ∩ dans P(E) et la loi ∩ est distributive par rapport à ∪ dans P(E). En
effet pour tout (A, B, C) ∈ P(E)3 on a A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) et A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C).
Attention : on a bien an am = an+m pour tout (m, n) ∈ Z2 , mais par contre l’égalité am bm = (ab)m n’est vraie
que lorsque a et b commutent !
Remarque 1.22 :
premières propriétés
Remarque 1.24 :
On définit sans détour le produit d’un nombre fini de groupes.
Remarque 1.31 :
Attention, la réunion de sous-groupes (même de seulement deux) n’est pas en général un sous-groupe. Voir exercices.
x ∈ G ; ∃n ∈ N∗ , ∃(α1 , . . . , αn ) ∈ (A ∪ A−1 )n , x = α1 ∗ · · · ∗ αn .
hAi =
En d’autres termes hAi est l’ensemble des éléments de G qui sont des produits finis d’éléments de A ou d’inverses
d’éléments de A.
Exemple 1.36 :
1. (Z, +) est monogène, engendré par 1 ou −1.
2. ({±1}, ×) est cyclique, engendré par −1.
3. L’ensemble (Z/nZ, +) des classes modulo n est un groupe cyclique, engendré par la classe de n’importe quel
entier premier à n. Nous reviendrons à cet exemple au paragraphe 1.4.
1. Un morphisme entre E et F est une application f : E → F respectant les structures, c’est-à-dire compatible
avec les lois de E et F .
2. Un endomorphisme de E est un morphisme de E vers E.
Remarque 1.39 :
Cette notion de morphisme sera étendue aux morphismes de groupes, d’anneaux, de corps, d’espaces vectoriels,
d’espaces topologiques. . . C’est une notion incontournable en mathématiques !
Définition 1.40 : morphisme de groupes
1. Un morphisme de groupes est un morphisme entre deux groupes. Plus précisément un morphisme entre les
groupes (G, ∗) et (H, >) est une application f : G → H telle que : ∀(x, y) ∈ G2 , f (x ∗ y) = f (x)>f (y).
On note en général f : (G, ∗) → (H, >) un morphisme entre (G, ∗) et (H, >).
2. De même notion d’endomorphisme de groupe.
Exemple 1.41 :
1. f : (R, +) → (R∗+ , ×), x 7→ ex , est un morphisme de groupes (abéliens).
2. g : (C, +) → (C, +), z 7→ z̄, est un morphisme de groupes (abéliens).
3. Le déterminant det : (GLn (R), ×) 7→ (R∗ , ×) est un morphisme de groupes. (Attention Mn (R) n’est pas un
groupe pour × !)
Im (f ) = f (G) = {y ∈ H ; ∃x ∈ G, y = f (x)}.
Exemple 1.46 :
1. Considérons l’application trace tr : (Mn (R), +) → (R, +), réalisant un morphisme de groupes additifs.
Son noyau Ker ( tr ) = sln (R) est constitué des matrices de trace nulle.
2. Considérons l’application déterminant det : (GLn (R), ×) → (R∗ , ×), réalisant un morphisme de groupes multi-
plicatifs.
Son noyau Ker (det) = SLn (R) est constitué des matrices de déterminant 1, il est appelé groupe spécial linéaire.
3. Considérons la restriction det|O(E) du déterminant au groupe orthogonal O(E) d’un espace vectoriel eucli-
dien E (défini dans l’exemple 1.29). On définit SO(E) = Ker (det|O(E) ) = {f ∈ O(E) ; det(f ) = 1}, appelé
groupe spécial orthogonal de E ; c’est alors un sous-groupe de O(E).
4. La signature ε est un morphisme du groupe Sn des permutations sur l’ensemble {1, . . . , n} muni de la composition
à valeurs dans ({±1}, ×). Son noyau {σ ∈ Sn ; ε(σ) = 1} est de fait un sous-groupe de Sn , appelé groupe alterné.
Exemple 1.49 :
Les groupes (R∗+ , ×) et (R, +) sont isomorphes via ln.
Théorème 1.50 : réciproque d’un isomorphisme de groupes
La bijection réciproque d’un isomorphisme de groupes est elle-même un isomorphisme de groupes.
L’ordre de la permutation σ est le plus petit entier naturel k non nul tel que σ k = Id.
Supposons n ≥ 2. On appelle transposition une permutation qui échange deux éléments distincts et qui laisse les
autres invariants. On la note usuellement (i j). Une transposition est d’ordre 2, elle est son propre inverse : c’est une
involution.
• La composée de deux permutations de même parité est paire. La composition de deux permutations de parités
différentes est impaire.
• Une permutation et son inverse ont même signature.
• L’ensemble des permutations paires est le noyau du morphisme ε.
C’est un sous-groupe de Sn , appelé groupe alterné, noté An .
• Une transposition est une permutation impaire, de signature −1.
• Le produit de k transpositions est de signature (−1)k .
• La décomposition en produit de transpositions peut être utilisée pour déterminer la signature d’une permutation.
Un cycle est une permutation c de [[1, n]] telle qu’il existe (a1 , . . . , ak ) ∈ [[1, n]]k telle que :
• Pour tout i ∈ [[1, k − 1]], c(ai ) = ai+1 .
• c(ak ) = a1 .
• La permutation c laisse invariants les entiers autres que les ai : pour tout j ∈ [[1, n]] \ {a1 , . . . , ak }, c(j) = j.
Ce cycle sera noté c = (a1 a2 · · · ak ). L’entier k est la longueur du cycle c. L’ensemble {a1 , . . . , ak } est le support du
cycle. On démontre enfin que :
Proposition 1.58 : signature d’un cycle
La signature d’un cycle de longueur k est (−1)k−1 . En d’autres termes un cycle de longueur paire est une permu-
tation impaire et un cycle de longueur impaire est une permutation paire.
cl x = cl(x) = x = {y ∈ E ; xRy}.
Exemple 1.60 :
Le parallélisme de droites, l’égalité d’objets, sont deux relations d’équivalence.
Proposition 1.61 : classes d’équivalences et partition d’un ensemble
1. Les classes d’équivalence forment une partition de l’ensemble :
• Aucune classe n’est vide : cl(x) 6= ∅ puisque x ∈ cl(x).
• Deux classes distinctes sont disjointes : si cl(x) 6= cl(y) alors cl(x) ∩ cl(y) = ∅ (démonstration par contrapo-
sée).
De façon équivalente : deux classes sont soit disjointes, soit confondues.
[
• La réunion de toutes les classes est égales à E : pour tout x ∈ E, on a x ∈ cl(x) donc x ∈ cl(y).
y∈E
2. Réciproquement, toute partition définit une relation d’équivalence : « appartenir à la même partie de la parti-
tion » .
Application :
Théorème 1.62 : Lagrange
Dans un groupe fini, le cardinal d’un sous-groupe divise le cardinal du groupe.
1.4.2 Congruence
Soit n ∈ N.
Définition 1.63 : entiers congrus
Deux entiers relatifs a et b sont dits congrus modulo n lorsque a − b ∈ nZ. On écrit a ≡ b [n] ou a = b mod n.
Proposition 1.64 : la relation de congruence modulo n
La relation de congruence modulo n est une relation d’équivalence.
Remarquons que si n > 0, alors a et b sont congrus modulo n si et seulement si ils ont le même reste dans la
division euclidienne par n. Il y a donc exactement n classes d’équivalence.
Définition 1.65 : l’ensemble Z/nZ
L’ensemble des classes d’équivalence modulo n est par définition :
Ceci nous permet d’affirmer que nous avons bien défini une loi de composition interne sur Z/nZ.
Théorème 1.67 : le groupe quotient (Z/nZ, +)
L’ensemble Z/nZ est un groupe abélien pour la loi + définie par cl(a) + cl(b) = cl(a + b).
Exemple 1.68 :
La table de Z/4Z est la suivante :
+ 0 1 2 3
0 0 1 2 3
1 1 2 3 0
2 2 3 0 1
3 3 0 1 2
admet au moins une solution c dans Z. L’ensemble des solutions est la classe de c modulo np.
Méthode :
1. On commence à se ramener à x ≡ ci [ni ] (possible car ai est inversible modulo ni ). Ceci se fait à la main ou avec
l’algorithme d’Euclide.
Y
2. On pose Mi = nj puis on résout Mi yi = 1 [ni ] (à la main ou algo d’Euclide).
j6=i
r
X
3. On pose enfin x = ci Mi yi .
i=1
Exemple 1.74
( :
2x = 1 [3]
Résoudre . On obtient x = 11.
5x = 3 [4]
Z −→ G, k 7−→ ak
Z −→ hai, k 7−→ ak ,
il est donc surjectif. Le noyau de ce morphisme est un sous-groupe de Z, donc de la forme nZ d’après le théorème 1.37.
Deux cas peuvent se produire :
• Si n = 0, alors le morphisme est aussi injectif. Le groupe hai est ainsi isomorphe à Z.
• Si n > 0, alors ak = e équivaut à k ∈ nZ : ainsi n est le plus petit entier strictement positif tel que an = e. Le
sous-groupe engendré par a est par conséquent : hai = {e, a, a2 , · · · , an−1 }, ou hai = {0, a, 2a, · · · , (n − 1)a} en
notation additive. Il est de fait isomorphe à Z/nZ.
L’entier n est appelé ordre de l’élément a.
Définition 1.75 : ordre d’un élément d’une groupe
Le plus petit entier naturel non nul n tel que an = e (s’il existe) est appelé ordre de a, noté o(a). C’est l’ordre du
groupe engendré par a.
On dit aussi que a est fini d’ordre n.
Nous venons de démontrer la :
Proposition 1.76 : description des groupes monogènes
1. Tout groupe monogène infini est isomorphe à Z.
2. Tout groupe monogène fini (on dit cyclique) d’ordre n est isomorphe à Z/nZ.
Exemple 1.77 :
Le groupe Un = {z ∈ C ; z n = 1} est engendré par e2iπ/n ; il est d’ordre n, donc isomorphe à Z/nZ.
Remarque 1.78 :
On vient de prouver au passage que si un élément a est fini d’ordre n, alors pour tout entier k : ak = 1G si et
seulement si n divise k.
On déduit de cette remarque et du théorème 1.62 le :
Théorème 1.79 : ordre d’un élément et cardinal du groupe
EPCC : aucun !
25
2.1. STRUCTURES D’ANNEAU, DE CORPS MP 2020-21
2. ∀a ∈ A, ∀p ∈ N,
2p 2p
! !
X X
1 + a2p+1 = (1 + a) (−a)k = (−a)k (1 + a).
k=0 k=0
3. ∀a ∈ A, ∀n ∈ N∗ , ∀(b1 , . . . , bn ) ∈ An ,
n n
! n n
!
X X X X
abi = a bi ∧ bi a = bi a.
i=1 i=1 i=1 i=1
2
4. ∀(n, p) ∈ (N∗ ) , ∀(a1 , . . . , an ) ∈ An , ∀(b1 , . . . , bp ) ∈ Ap ,
!
p p
n n
! n n
X X X X X X
ai bj = ai bj = ai bj .
i=1 j=1 j=1 i=1 i=1 j=1
Exemple 2.9 :
• Les inversibles de Z étant 1 et −1, on en déduit que tout entier est associé à un entier naturel et un seul.
• Les inversibles de Z[i] étant 1, −1, i et −i, on en déduit que 1 + 2i et i − 2 sont associés.
• Les inversibles de K[X] étant les éléments non-nuls de K, on en déduit que tout polynôme est associé à un
polynôme unitaire et un seul.
2.1.3 Sous-anneau
Définition 2.10 : sous-anneau
On considère un anneau (A, +, ×) et une sous-partie A0 de A. On dit que la partie A0 est un sous-anneau de A
lorsque :
1. (A0 , +) est un sous-groupe de (A, +).
2. La partie A0 est stable pour la loi × : ∀(a, b) ∈ A02 , ab ∈ A0 .
3. L’élément unité de A est dans A0 : 1A ∈ A0 .
Exemple 2.12 :
1. L’ensemble Z est un sous-anneau de R.
2. L’ensemble Z[i] est un sous-anneau de C, appelé anneau des entiers de Gauss.
3. L’ensemble des application continues de R dans R est un sous-anneau de l’anneau des applications de R dans R.
4. L’ensemble des suites bornées, l’ensemble des suites périodiques, sont des sous-anneaux de RN .
Exemple 2.15 :
Si a est un élément inversible de l’anneau A, alors l’application ϕa : x 7→ axa−1 est un automorphisme d’anneau
de A, appelé automorphisme intérieur. Sa bijection réciproque est ϕa−1 .
Proposition 2.16 : image directe et image réciproque de sous-anneaux par un morphisme
L’image directe et l’image réciproque de sous-anneaux par un morphisme d’anneaux sont des sous-sous-anneaux.
Plus précisément soit f : A → B un morphisme d’anneaux, et A0 et B 0 des sous-anneaux de A et B respectivement.
Alors f (A0 ) est un sous-anneau de B et f −1 (B 0 ) est un sous-anneau de A.
Im (f ) = f (A) = {y ∈ B ; ∃x ∈ A, y = f (x)}.
Exemple 2.21 :
1. (Z, +, ×) est un anneau intègre.
2. Dans l’anneau (RR , +, ×) il y a des diviseurs de zéro. En effet les fonctions f = 1[−2,−1] et g = 1[1,2] , indicatrices
de [−2, −1] et [1, 2] respectivement, sont non-nulles mais de produit nul.
! ! !
0 1 0 1 0 0
3. M2 (R) admet des diviseurs de zéro : × = . On généralise sans problème à
0 0 0 0 0 0
Mn (R).
Exemple 2.24 :
• Les ensembles C, R, Q pour les lois + et × usuelles sont des corps commutatifs.
• Z est un anneau commutatif unitaire intègre, mais ce n’est pas un corps car par exemple 2 n’a pas de symétrique
pour × (i.e. n’admet pas d’inverse).
• K[X] n’est pas un corps car un polynôme non constant n’a pas d’inverse dans K[X].
Remarque 2.25 :
1. Dans la suite, tous les corps qui interviendront seront commutatifs.
2. Tout corps commutatif est un anneau intègre. La réciproque est fausse : (Z, +, ×) est intègre mais pas un corps.
Exemple 2.27 :
• Q est un sous-corps de R, qui est un sous-corps de C (pour les lois + et × usuelles).
√ √
• L’ensemble Q[ 2] = {a + b 2 ; (a, b) ∈ Q2 } est un sous-corps de R.
Remarque 2.28 :
1. Tout sous-corps L d’un corps K est un corps pour les lois induites. Les neutres de L pour + et × sont ceux de
K.
2. Le plus petit sous-corps de C est Q.
En effet soit k un sous-corps de C. Alors 1 ∈ k, donc Z ⊂ k d’après (i), puis Q ⊂ k d’après (ii) et (iv).
Exemple 2.31 :
L’ensemble 2Z des entiers pairs est un idéal de l’anneau Z des entiers.
Plus généralement, les nZ sont des idéaux de l’anneau Z. Nous verrons dans le théorème 2.36 qu’il n’y en a pas
d’autre.
Proposition 2.32 : images directe et réciproque d’un idéal par un morphisme d’anneaux
Soit f un morphisme d’anneaux de A dans A0 (A et A0 anneaux commutatifs).
1. L’image directe d’un idéal de A est un idéal du sous-anneau f (A).
2. L’image réciproque d’un idéal de A0 est un idéal de A. En particulier Ker f est un idéal de A.
Remarque 2.33 :
Pourquoi anneau commutatif ?
Sinon, on parle d’idéal à gauche (∀i ∈ I, ∀a ∈ A, ia ∈ I) ou d’idéal à droite ∀i ∈ I, ∀a ∈ A, ai ∈ I).
Définition 2.34 : idéal engendré par un élément
L’ensemble xA = {xa ; a ∈ A} des multiples d’un élément x de A est un idéal, appelé idéal engendré par x. On
peut aussi le noter (x).
Remarque 2.35 :
La relation « divise » se ramène à une inclusion des idéaux engendrés : x divise y si et seulement si (y) ⊂ (x).
2.2.2 Idéaux de Z
Théorème 2.36 : idéaux de Z
Les idéaux de l’anneau Z sont les nZ, pour n ∈ Z (on dit que l’anneau Z est principal).
aZ + bZ = {au + bv ; (u, v) ∈ Z2 }
Autrement dit l’ensemble des entiers de la forme au + bv est l’ensemble des multiples de a ∧ b.
En particulier :
Théorème 2.38 : Bézout
PGCD(a, b) = 1 si et seulement si : ∃(u, v) ∈ Z2 , au + bv = 1.
On a vu en Première Année les corollaires de ce théorème :
• (Lemme de Gauss) Si un entier divise le produit de deux entiers, et s’il est premier avec l’un, alors il divise
l’autre :
( a | bc et pgcd(a, b) = 1 ) =⇒ a | c.
• Si un entier est divisible par les éléments d’une famille d’entiers premiers entre eux deux à deux, alors il est
divisible par leur produit :
• Si un entier est premier avec les éléments d’une famille d’entiers, il est premier avec leur produit :
• Si deux entiers sont premiers entre eux, il en est de même de toutes puissances de ces deux entiers :
Ceci nous permet d’affirmer que nous avons bien défini une loi de composition interne sur Z/nZ. Ceci est la base
de la démonstration du :
Théorème 2.42 : l’anneau quotient Z/nZ
L’ensemble (Z/nZ, +, ×) muni des lois cl(a) + cl(b) = cl(a + b) et cl(a) × cl(b) = cl((ab) est un anneau commutatif
unitaire.
Exemple 2.43 :
La table de multiplication de Z/4Z est la suivante :
× 0 1 2 3
0 0 0 0 0
1 0 1 2 3
2 0 2 0 2
3 0 3 2 1
On constate que Z/4Z n’est pas intègre : 2 × 2 = 0. Les éléments inversibles sont 1 et 3, ils sont leurs propres inverses.
On remarque alors que la surjection canonique a 7→ cl(a) de Z dans Z/nZ est un morphisme d’anneaux surjectif.
Théorème 2.44 : produit des anneaux Z/nZ et Z/pZ
Soit (n, p) ∈ N2 . Si n et p sont premiers entre eux, alors les anneaux Z/nZ × Z/pZ et Z/(np)Z sont isomorphes.
Remarque 2.46 :
Le calcul de l’inverse d’une classe dans Z/nZ se ramène à l’algorithme d’Euclide. Déterminons par exemple l’inverse
de 5 dans Z/14Z. On a 14 = 5 × 2 + 4 et 5 = 4 × 1 + 1 donc 1 = 5 − 4 = 5 − (14 − 5 × 2) = 5 × 3 + (−1) × 14. Par
−1
conséquent 5 = 3 dans Z/14Z.
Remarque 2.47 :
D’après la proposition 2.7, l’ensemble (U(Z/nZ), ×) des inversibles pour × de l’anneau Z/nZ est un groupe.
Définition 2.48 : fonction indicatrice d’Euler
On appelle fonction indicatrice d’Euler la fonction ϕ : N → N qui à n associe le nombre ϕ(n) d’entiers de l’intervalle
[[1, n]] premiers avec n.
D’après le théorème précédent ϕ(n) est le cardinal du groupe des éléments inversibles de l’anneau (Z/nZ, +, ×).
En particulier ϕ(p) = p − 1 si p est premier .
Corollaire 2.49 : un théorème d’Euler
ϕ(n)
Pour tout entier k premier avec n, on a k = 1.
En particulier, pour tout entier relatif x premier avec n, on a xϕ(n)+1 ≡ x mod n.
Pour connaître l’indicatrice d’Euler d’un entier n, il suffit donc de calculer celle des puissances de nombres premiers
figurant dans la décomposition de n.
Si p est un nombre premier, alors les entiers de [[1, pk ]] premiers avec pk sont ceux qui sont premiers avec p, c’est-
à-dire tous ceux qui ne sont pas des multiples de p. Il y a ainsi exactement pk−1 éléments non inversibles modulo p
dans [[1, pk ]] (car multiples de p), à savoir : 1 × p, 2 × p, . . . , pk−1 × p. Par conséquent :
Autrement dit, l’ensemble des polynômes de la forme U P + V Q est l’ensemble des multiples du polynôme pgcd(P, Q).
En particulier :
Théorème 2.55 : Bézout
On a : pgcd(P, Q) = 1 si et seulement si ∃(U, V ) ∈ K[X]2 , U P + V Q = 1.
On a vu en MPSI les corollaires de ce théorème :
• (Lemme de Gauss) Si un polynôme divise le produit de deux polynômes, et s’il est premier avec l’un, alors il
divise l’autre :
( P | QR ∧ pgcd(P, Q) = 1 ) =⇒ P | R.
• Si P est divisible par les éléments d’une famille de polynômes premiers entre eux deux à deux, alors il est divisible
par leur produit :
• Si P est premier avec les éléments d’une famille de polynômes, alors il est premier avec leur produit :
• Si deux polynômes sont premiers entre eux, alors il en est de même des puissances de ces deux polynômes :
Remarque 2.56 :
La recherche d’un couple (U0 , V0 ) solution de AU + BV = 1 s’effectue à l’aide de l’algorithme d’Euclide. Pour
déterminer ensuite tous les couples possibles, il faut encore travailler !
Supposons en effet que (U, V ) est une autre solution. Il vient AU0 + BB0 = 1 et AU + BV = 1 donc par différence
A(U − U0 ) + B(V − V0 ) = 0, ce qui implique A(U − U0 ) = −B(V − V0 ). Or A et B sont premiers entre eux, donc
A divise V − V0 . Il existe ainsi un polynôme R tel que V − V0 = AR. On remplace cette dernière égalité dans
A(U − U − 0) = −B(V − V0 ) pour obtenir A(U − U0 ) = −BAR puis U − U0 = −BR.
Les solutions de AU + BV = 1 sont finalement de la forme (U0 − BR, V0 + AR), pour R ∈ K[X].
Exemple 2.57 :
Rappelons les irréductibles de C[X] puis de R[X]. Le théorème suivant, parfois appelé théorème fondamental de
l’algèbre, règle le cas de C[X] :
Théorème 2.64 : D’Alembert-Gauss, ou TH fondamental de l’algèbre (rappel de MPSI)
Tout polynôme non constant de C[X] possède au moins une racine.
Ce théorème admet de multiples démonstrations, toutes nécessitant des outils que nous n’avons pas le temps de
développer. Ces démonstrations sont donc officiellement hors-programme.
Corollaire 2.65 : irréductibles de C[X] (rappel de MPSI)
1. Les seuls polynômes irréductibles de C[X] sont les polynômes de degré 1.
2. Tout polynôme de C[X] de degré n ≥ 0 possède exactement n racines complexes, comptées avec leur ordre de
multiplicité.
Remarque 2.66 :
Le cas réel est trompeur : ce n’est pas parce qu’un polynôme à coefficients réels n’admet aucune racine réelle qu’il
est irréductible ! Par exemple
√ √
X 4 + 1 = (X 2 + 1)2 − 2X 2 = (X 2 − 2X + 1)(X 2 + 2X + 1).
(K[X], +, ×, ·), (L(E), +, ◦, ·), (Mn (K), +, ×, ·), (F(X, K), +, ×, ·),
Exemple 3.3 :
Fondamentaux.
1. Dans Kn , pour x = (x1 , . . . , xn ) posons :
n n
! 12
X X
N1 (x) = |xi |, N2 (x) = |xi |2 , N∞ (x) = max i∈[[1,n]] |xi |.
i=1 i=1
37
3.1. NORMES ET DISTANCES MP 2020-21
Z b
La norme N2 est appelée norme euclidienne associée au produit scalaire (f, g) 7→ f (t)g(t) dt, ou encore
a
norme de la convergence en moyenne quadratique.
La norme N1 est appelée norme de la convergence en moyenne.
La norme N∞ est appelée norme de la convergence uniforme.
et cette inégalité est une égalité si et seulement si (x, y) est une famille liée.
On en déduit que :
Théorème 3.11 : norme (hermitienne) associée à un produit scalaire
Soit ( · | · ) un produit scalaire sur un K-espace vectoriel E (K étant R ou C)).
p
Alors l’application k · k définie par kxk = (x|x) est une norme, appelée norme hermitienne associée au produit
scalaire.
Elle vérifie en particulier l’inégalité de Minkowski (conséquence de l’inégalité de Cauchy-Schwarz) :
Remarque 3.12 :
Notons que pour tout x ∈ E : kxk = sup |(x|y)|.
kyk≤1
Exemple 3.16 :
1. B(a, r) est bornée par kak + r. De même pour la boule ouverte et la sphère.
2. Dans (R2 , N∞ ), le pavé [a, b] × [c, d] est borné par max (|a|, |b|, |c|, |d|).
est une norme sur B(X, E), notée k · k ∞ et appelée la norme infinie.
Comme pour les suites réelles, on montre facilement l’unicité de ` lorsqu’il existe. On l’appelle limite de la suite.
Proposition 3.23 : propriétés immédiates
1. Toute suite convergente est bornée.
2. L’ensemble des suites bornées de E est un K-espace vectoriel noté `∞ (E), et l’application :
`∞ (E) −→ R
u 7−→ sup kun k
n∈N
Remarque 3.24 :
Il est très important de noter que la définition de la convergence est liée à la norme de E. S’il existe plusieurs
normes sur E, une même suite peut converger pour une norme et diverger pour une autre.
Exemple 3.25 :
Considérons la suite de fonctions (fn )n définies sur [0, 1] par fn (t) = tn .
Z 1
1
• kfn k1 = |tn |dt = : la suite (fn )n converge vers la fonction nulle pour la norme k · k 1 (convergence en
0 n + 1
moyenne).
• kfn k∞ = sup tn = 1 : la suite (fn )n ne converge pas vers la fonction nulle (ni vers aucune autre) pour la norme
t∈[0,1]
k · k ∞.
k · k 1 ≤ k · k 2 ≤ k · k ∞.
kfn k2 kfn k∞
Les quotients et ne sont pas majorés : les trois normes ne sont pas équivalentes deux à deux.
kfn k1 kfn k2
Il faut donc distinguer la convergence d’une suite de fonctions suivant la norme utilisée :
• la convergence pour la norme k · k 1 s’appelle convergence en moyenne ;
• la convergence pour la norme k · k 2 s’appelle convergence en moyenne quadratique ;
• la convergence pour la norme k · k ∞ s’appelle convergence uniforme.
La convergence uniforme implique la convergence en moyenne quadratique, qui implique la convergence en moyenne,
mais les réciproques sont fausses.
1. Toute suite extraite d’une suite convergente converge vers la même limite.
2. Si une suite admet deux suites extraites qui convergent vers des limites différentes, alors la suite initiale ne
converge pas.
3. Si par exemple (x2n )n et (x2n+1 )n convergent vers `, alors (xn )n converge vers `.
Remarque 3.37 :
Si la suite (xn )n converge vers `, alors ` est l’unique valeur d’adhérence de (xn )n .
Il en résulte qu’une suite ayant au moins deux valeurs d’adhérence distinctes est divergente.
Exemple 3.38 : π
La suite cos n est divergente.
3 n
Remarque 3.39 :
Si E = R ou C, on sait d’après le théorème de Bolzano-Weierstrass que toute suite bornée possède au moins une
valeur d’adhérence. On peut montrer alors que si cette valeur d’adhérence est unique, la suite est convergente. Mais
cette propriété n’est pas vraie dans un espace vectoriel normé quelconque.
3.3.1 Domination
Définition 3.40 : suite dominée par une autre
La suite (xn )n est dite dominée par la suite (αn )n lorsque :
On écrit : xn = O(αn ).
Remarque 3.41 :
1
Si la suite (αn )n ne s’annule pas à partir d’un certain rang xn = O(αn ) signifie que la suite xn est bornée
αn
dans E.
3.3.2 Négligeabilité
Définition 3.42 : suite négligeable devant une autre
La suite (xn )n est dite négligeable devant la suite (αn )n lorsque :
On écrit : xn = o(αn ).
Remarque 3.43 :
1
Si la suite (αn )n ne s’annule pas à partir d’un certain rang, xn = o(αn ) signifie que la suite xn converge vers
αn
0E .
3.3.3 Équivalence
Soit (xn )n et (yn )n deux suites d’éléments de E.
Définition 3.44 : suites équivalentes
On dit que (xn )n est équivalente à (yn )n si la différence (xn − yn )n est négligeable devant (kyn k)n :
On écrit : xn ∼ yn .
On peut montrer qu’il s’agit d’une relation d’équivalence. La symétrie permet de dire « les suites (xn )n et (yn )n
sont équivalentes ».
Proposition 3.45 : suites équivalentes
1. Si deux suites sont équivalentes et si l’une d’elles converge vers `, alors l’autre converge aussi vers `.
2. La suite (xn )n est équivalente à la suite constante (`)n , avec ` 6= 0E , si et seulement si (xn )n converge vers `.
Remarque 3.46 :
Attention : xn ∼ 0E signifie que la suite (xn )n est stationnaire nulle !
EPCC : aucun !
Topologie
∃r > 0 / ∀y ∈ E, ky − xk < r ⇒ y ∈ V.
45
4.1. NOTIONS TOPOLOGIQUES MP 2020-21
En d’autres termes :
∀x ∈ O, ∃r > 0 / ∀y ∈ E, ky − xk < r ⇒ y ∈ O.
∀ε > 0 ∃a ∈ A ka − xk < ε.
Remarque 4.11 :
2. Si au contraire il existe un voisinage de x qui ne rencontre A qu’au point x, on dit que x est un point isolé de
A:
∃V ∈ VE (x), V ∩ A = {x}.
Exemple 4.13 :
1. Le point du plan d’affixe 1 est un point adhérent à la boule unité ouverte.
2. Tous les points de Z sont des points isolés de Z.
3. Pour l’ensemble A = {a} (singleton), le point a est adhérent à A ; ce point a est un point isolé de A ; mais a
n’est pas un point d’accumulation de A.
Remarque 4.14 :
1. Un point adhérent à A qui ne lui appartient pas est nécessairement un point d’accumulation.
2. Un point isolé appartient nécessairement à A.
L’adhérence A est donc l’ensemble des limites des suites convergentes d’éléments de A. Plus généralement A est
l’ensemble des valeurs d’adhérence des suites d’éléments de A.
Corollaire 4.21 : autre caractérisation séquentielle du caractère fermé
Une partie A d’un espace vectoriel normé est fermée si et seulement si elle contient les limites de toutes ses suites
convergentes.
On en déduit :
Exemple 4.22 :
Un sous-espace vectoriel de dimension finie d’un espace vectoriel normé est fermé.
∃ε > 0 ∀y ∈ E, ky − xk < ε ⇒ y ∈ A.
◦
L’ensemble des éléments de E intérieurs à A est appelé intérieur de A et noté A.
Remarque 4.24 :
◦ ◦
1. Bien sûr, tout élément de A est élément de A : A ⊂ A.
2. La réciproque est fausse : par exemple dans C le point d’affixe 1 est élément de la boule unité fermée mais ne
lui est pas intérieur.
Remarque 4.28 :
1. La frontière de A est l’intersection de deux fermés, c’est donc un fermé.
2. La frontière de A est aussi la frontière du complémentaire de A.
Exemple 4.29 :
La frontière de la boule unité fermée du plan complexe est le cercle unité fermé. Plus généralement la frontière
d’une boule (ouverte ou fermée) est la sphère qui lui est associée.
Exemple 4.31 :
Le segment [0, 1] est un voisinage de 0 relatif à R+ .
Définition 4.32 : ouvert/fermé relatif à une partie
On appelle ouvert relatif de A l’intersection de A avec un ouvert de E, et fermé relatif de A l’intersection de A
avec un fermé de E.
Remarque 4.33 :
1. Un fermé relatif de A est le complémentaire dans A d’un ouvert relatif de A.
2. Attention : un ouvert relatif de A n’est pas nécessairement un ouvert de E. Par exemple ]0, 1[ est un ouvert
relatif de R, mais ce n’est pas un ouvert de C.
3. Attention : un fermé relatif de A n’est pas nécessairement un fermé de E. Par exemple ]0, 12 ] est un fermé relatif
de ]0, 1[, mais ce n’est pas un fermé de R.
∀V ∈ VF (`), ∃W ∈ VE (a) / f (W ∩ A) ⊂ V.
En d’autres termes :
∀ε > 0, ∃α > 0, ∀x ∈ A, kx − ak ≤ α ⇒ kf (x) − `k ≤ ε.
Remarque 4.36 :
Le vecteur ` est adhérent à f (A).
Remarque 4.37 :
La définition faisant intervenir des voisinages peut s’étendre au cas des applications possédant une limite en ±∞
lorsque E = R, ou une limite infinie lorsque F = R.
Il convient pour cela d’appeler voisinage de +∞ toute partie de R contenant au moins un intervalle de la forme
[d, +∞[, et de même voisinage de −∞ toute partie de R contenant au moins un intervalle de la forme [−∞, d].
Ainsi lim f (x) = −∞ signifie :
x→+∞
∀c ∈ R ∃d ∈ R ∀x ∈ A x ≥ d ⇒ f (x) ≤ c.
2. En particulier si a ∈ A, alors l’ensemble des applications de A dans F continues en a est un K-espace vectoriel.
3. Si F = K, alors les deux ensembles ci-dessus sont même des K-algèbres.
On écrit : f = O(ϕ).
2. On dit que f est négligeable devant ϕ au point a lorsque :
On écrit : f = o(ϕ).
3. Soit g une autre application de A dans F . On dit que f est équivalente à g au point a lorsque f −g est négligeable
devant kgk :
∀ε > 0 ∃V ∈ V(a) ∀x ∈ V ∩ A kf (x) − g(x)k ≤ ε kg(x)k .
On écrit : f ∼ g.
Remarque 4.51 :
1. Si deux fonctions sont équivalentes en a et si l’une d’elles admet pour limite ` au point a, alors l’autre admet
aussi la limite ` au point a.
Réciproque fausse : deux fonctions de limite nulle ne sont pas forcément équivalentes.
Par exemple f (x) = x et g(x) = x2 en x = 0.
1. Une application f : A → F est dite continue lorsqu’elle est continue en tout point de A.
2. Si B est une partie de A, alors on dit que f est continue sur B si sa restriction à B est continue (en tout point
de B).
Remarque 4.53 :
Attention : cette définition n’est pas universellement adoptée et certains auteurs veulent que f elle-même soit
continue en tout point de B. Il nous semble pourtant normal de dire que la fonction partie entière est continue sur
[0, 1[ (où elle est constante !), bien que non continue en 0. . . Il sera cependant prudent d’être très explicite sur ce genre
de question.
Proposition 4.54 : structure de l’ensemble des applications continues
L’ensemble des applications continues de A dans F est un espace vectoriel, noté C(A, F ). Si F = K il s’agit même
d’une K-algèbre, simplement notée C(A).
Il résulte du théorème de composition des limites que la composée de deux applications continues est continue.
Exemple 4.55 :
L’application identité R → R est bien entendu continue.
Le corollaire 4.45 permet d’affirmer par produit que les applications puissances x 7→ xn sont continues.
r
Encore le corollaire 4.45 permet d’affirmer que les applications multinomiales (x1 , . . . , xp ) 7→ xr11 · · · xpp sont conti-
nues.
Enfin le corollaire 4.44 permet d’affirmer par linéarité que les applications polynomiales
N
X
(x1 , . . . , xp ) 7→ ai1 ,...,ip xr11 · · · xrpp
i1 ,...,ip =0
sont continues.
Théorème 4.56 : applications continues qui coïncident sur une partie dense
Soit E et F deux espaces vectoriels normés et A une partie de E. Deux applications continues de A dans F qui
coïncident sur une partie B dense dans A sont égales.
4.2.6 Image réciproque d’un ouvert ou d’un fermé par une application continue
Théorème 4.57 : caractérisation de la continuité par l’image réciproque d’un ouvert ou d’un fermé
Soit E et F deux espaces vectoriels normés et f une application d’une partie A de E dans F . Les trois propriétés
suivantes sont équivalentes :
(i) f est continue.
(ii) L’image réciproque de tout fermé de F est un fermé relatif de A.
(iii) L’image réciproque de tout ouvert de F est un ouvert relatif de A.
Remarque 4.58 :
Ce résultat permet de démontrer très facilement qu’une partie est ouverte ou fermée.
Exemple 4.59 :
1. Dans R3 , la sphère de centre O de rayon 1 est l’image réciproque du fermé {1} par l’application (x, y, z) 7→
x2 + y 2 + z 2 , continue sur R3 : ainsi cette sphère est fermée dans R3 .
2. Dans R2 , la région strictement comprise entre les deux branches de l’hyperbole équilatère d’équation x2 − y 2 = 1
est l’image réciproque de l’ouvert ] − ∞, 1[ par l’application (x, y) 7→ x2 − y 2 , continue sur R2 : ainsi cette région
est un ouvert relatif de R2 (mais pas un ouvert de R3 par exemple. . . ).
3. Dans Mn (K), l’ensemble des matrices inversibles est l’image réciproque de l’ouvert K∗ par l’application A 7→
det(A), continue : ainsi GLn (K) est un ouvert de Mn (K).
4. Considérons l’espace vectoriel E des suites réelles bornées, muni de la norme k · k∞ , l’ensemble A des suites
convergentes, et l’ensemble B des suites convergentes de limite strictement positive.
Tout d’abord B est l’image réciproque de l’ouvert R∗+ par l’application lim : A → R, (un )n 7→ lim un , qui
n→+∞ n→+∞
est 1-lipschitzienne donc continue : ainsi B est un ouvert relatif de A.
Mais B n’est pas un ouvert de E : si (un )n ∈ B, alors pour tout ε > 0 la suite (vn ) définie par vn = un + (−1)n ε
n’est pas dans B (elle n’admet même pas de limite !) alors que k(un ) − (vn )k∞ = ε.
4.2.7 Homéomorphisme
Définition 4.60 : homéomorphisme
Soit E et F deux espaces vectoriels normés. On appelle homéomorphisme une application continue et bijective de
E dans F dont la bijection réciproque f −1 est aussi continue. On dit aussi que f est bicontinue.
Théorème 4.61 : équivalence de normes et homéomorphisme
Soit E un espace vectoriel. Deux normes N1 et N2 de E sont équivalentes si et seulement si IdE est un homéomor-
phisme de (E, N1 ) dans (E, N2 ).
Remarque 4.64 :
1. En particulier : toute application lipschitzienne sur A est uniformément continue sur A, donc continue sur A.
√
2. La réciproque est fausse : en effet la fonction racine carrée · : R+ → R+ est uniformément continue sur [0, 1]
alors qu’elle n’est pas lipschitzienne sur [0, 1].
Exemple 4.65 :
L’application x 7→ d(x, A) (distance à la partie A d’un EVN E) est lipschitzienne, donc uniformément continue,
donc continue. Ceci a déjà été démontré au chapitre 3, dans l’exemple 3.20.
Remarque 4.67 :
Dans le troisième point, on peut remplacer la boule unité fermée par la boule unité ouverte ou par la sphère unité
ou encore par une boule ouverte ou fermée ou une sphère de rayon fixé quelconque.
Exemple 4.68 :
1. Supposons E = F (espace préhilbertien réel ou complexe). Alors tout automorphisme orthogonal de E conserve
la norme donc est borné sur la boule unité, et par conséquent est continu sur E.
En d’autres termes : un automorphisme orthogonal d’un espace préhilbertien (réel ou complexe) est toujours
continu.
2. Considérons l’espace vectoriel E des suites réelles convergentes, muni de la norme k · k∞ . Alors l’application de
E dans R qui à toute suite convergente associe sa limite est 1-lipschitzienne donc continue sur E.
n
ak X k par kP k∞ = max k∈[[0,n]] |ak |.
P
3. Considérons l’espace E = Kn [X] muni de la norme définie pour P =
k=0
Alors l’application dérivation D : E → E, P 7→ P 0 , vérifie : ∀P ∈ Kn [X], kP 0 k∞ ≤ n kP k∞ . Par conséquent elle
est continue.
En revanche, l’application
dérivation
considérée de K[X] dans K[X] n’est pas continue car kX n k∞ = 1 tandis
n n−1
que kD(X )k∞ = n X
∞
= n n’est pas majoré.
Remarque 4.69 :
1. Si deux normes sont équivalentes (par exemple en dimension finie), alors toute application linéaire continue pour
l’une est continue pour l’autre.
2. Ce n’est pas toujours vrai pour deux normes non équivalentes : il existe des applications qui sont continues pour
une norme et pas pour une autre. En effet dans le dernier exemple, si on munit K[X] de la norme N définie pour
n |ak |
ak X k par N (P ) = max k∈[[0,n]]
P
P = , alors l’application dérivation de (K[X], k · k∞ ) dans (K[X], N )
k=0 (k + 1)!
devient continue car pour tout P ∈ K[X], on a N (P 0 ) ≤ kP k∞ .
Remarque 4.71 :
Lorsque E est de dimension finie, on peut donc confondre LC(E, F ) et L(E, F ).
Exemple 4.73 :
1. L’application K × E, (α, x) 7→ αx est bilinéaire continue.
2. Si E est un espace préhilbertien réel ou complexe, le produit scalaire est bilinéaire continu (c’est une conséquence
de l’inégalité de Cauchy-Schwarz).
3. La multiplication matricielle est une application bilinéaire de Mn (K)2 dans Mn (K). Elle est continue car pour
n’importe quelle norme matricielle : kABk ≤ kAk kBk.
Exercice : la norme k · k∞ n’est pas matricielle, par contre la norme de Frobénius (définie par (A|B) = tr (tA · B))
l’est.
Remarque 4.75 :
On démontre par récurrence immédiate que toute application n-linéaire de source un produit d’espaces de dimension
finie est continue.
Ceci permet d’affirmer que le déterminant est une application continue.
Exemple 4.76 :
Si E est un espace vectoriel normé de dimension 2 muni d’une base b = (e1 , e2 ), alors l’application detb : E 2 → K,
(x, y) 7→ detb (x, y) est bilinéaire de source de dimension finie, donc continue.
Plus généralement si E est de dimension n, alors l’application detb : E n → K, (x1 , . . . , xn ) 7→ detb (x1 , . . . , xn ) est
n -linéaire continue.
L’application det : Mn (K) → K, A 7→ det(A) est également continue car polynomiale.
Ainsi |||f ||| est donc le plus petit réel K tel que : ∀x ∈ E, kf (x)k ≤ K kxk.
Exemple 4.81 :
E étant un espace vectoriel normé et A une partie non vide de E, l’ensemble des applications bornées de A dans
C, muni de la norme k · k∞ définie par
kf k∞ = sup kf (x)k ,
x∈A
Éléments propres
Soit K un sous-corps de R ou C.
Fixons un K-espace vectoriel E, et un endomorphisme u de E.
∀x ∈ F, u(x) ∈ F.
Dans ce cas, la restriction de u à F , au départ comme à l’arrivée, est un endomorphisme de F appelé endomorphisme
induit par u.
Exemple 5.5 :
Si u et v sont deux endomorphismes de E qui commutent, alors les sous-espaces Ker u et Im u sont stables par v.
En particulier Ker u et Im u sont stables par u.
57
5.1. SOUS-ESPACES STABLES MP 2020-21
forme : !
B C
A = où B ∈ Mp (K), D ∈ Mn−p (K).
0 D
Réciproquement, toute matrice de cette forme représente un endomorphisme stabilisant le sous-espace engendré par
les p premiers vecteurs de base.
Remarque 5.6 :
Le déterminant de u est alors : det u = det A = det B · det D.
Plus généralement, soit (E1 , . . . , Ep ) une famille finie de sous-espaces vectoriels dont E est la somme directe, et u un
endomorphisme de E stabilisant chaque Ei . La matrice de u dans une base adaptée à cette décomposition est diagonale
par blocs. Réciproquement, toute matrice de cette forme représente un endomorphisme stabilisant chaque sous-espace
Ei .
Remarque 5.7 :
Le déterminant de u est alors le produit des déterminants diagonaux.
∃P ∈ GLn (K), A = P DP −1 ,
Remarque 5.9 :
1. Cette réduction peut servir en particulier à calculer les puissances de A. En effet par récurrence immédiate :
∀k ∈ N, Ak = P Dk P −1 .
2. Nous donnerons plus loin des méthodes effectives de diagonalisation d’un endomorphisme ou d’une matrice.
Soit B = (e1 , . . . , en ) une base de E ; pour tout k ∈ [[1, n]], posons Fk = Vect(e1 , . . . , ek ). La matrice de u dans la base
B est triangulaire supérieure si et seulement si tous les sous-espaces Fk sont stables par u.
Il en résulte que :
Proposition 5.11 : trigonalisabilité et existence d’un drapeau
L’endomorphisme u (du K-espace E de dimension finie) est trigonalisable si et seulement si il existe une suite
(F1 , . . . , Fn ) de sous-espaces stables par u, strictement croissante pour l’inclusion.
Définition 5.12 : drapeau de sous-espaces
F1 ⊂ F2 ⊂ · · · ⊂ Fn
∃P ∈ GLn (K), A = P T P −1 ,
p
X
P (u) = ak uk où u0 = IdE .
k=0
1K[X] (u) = IdE ; ∀(P, Q) ∈ K[X]2 (αP + βQ)(u) = αP (u) + βQ(u) ; (P Q)(u) = P (u) ◦ Q(u).
. . . son noyau. . .
Le noyau de ce morphisme est l’ensemble des polynômes P tels que P (u) = 0.
Définition 5.15 : polynôme annulateur d’un endomorphisme
Les polynômes P tels que P (u) = 0 sont appelés les polynômes annulateurs de u.
Remarque 5.16 :
Les polynômes annulateurs de u forment un idéal de l’anneau K[X] (sous-groupe additif de K[X] vérifiant : pour
tout polynôme P annulateur de u et tout polynôme A de K[X], le polynôme AP est encore un polynôme annulateur
de u).
L’anneau K[X] étant principal, l’idéal des polynômes annulateurs de u est principal, c’est-à-dire que c’est l’ensemble
des multiples d’un polynôme µu (X).
Remarque 5.20 :
Il est à noter qu’un endomorphisme ne possède pas toujours de polynôme minimal. En effet l’ensemble de ses
polynômes annulateurs peut être réduit à {0}).
Par exemple l’opérateur de dérivation D sur K[X] : il n’existe aucune équation différentielle linéaire à coefficients
constants vérifiée par tous les polynômes. Cependant, en dimension finie :
Théorème 5.21 : existence d’un polynôme minimal en dimension finie
Tout endomorphisme d’un espace vectoriel de dimension finie possède un polynôme minimal.
Exemple 5.22 :
La restriction à Kn [X] de l’opérateur de dérivation D a pour polynôme minimal X n+1 .
Voyons trois applications de l’existence de polynômes annulateurs en dimension finie.
Proposition 5.25 : toute sous-algèbre de Mn (K) est stable par prise d’inverse
Soit A une sous-algèbre de Mn (K).
Pour toute matrice M inversible appartenant à A, l’inverse M −1 appartient encore à A.
Exemple 5.26 :
Nombreuses applications utiles !
1. Si T est triangulaire supérieure et inversible, alors son inverse est également triangulaire supérieure.
sup
Ceci découle du fait que Tn (K) est une sous-algèbre de Mn (K).
! !
1 0 0 1
2. Considérons I2 = et A = . Remarquons que Vect(I2 , A) est une sous-algèbre de M2 (R)
0 1 1 0
(exo !).
D’après la proposition précédente, l’inverse de xI2 + yA (s’il existe) est de la forme x0 I2 + y 0 A.
. . . et son image !
L’image du morphisme P 7→ P (u) est l’ensemble des endomorphismes de la forme P (u), avec P ∈ K[X]. C’est une
sous-algèbre de L(E).
Définition 5.27 : sous-algèbre engendrée par un endomorphisme
L’image du morphisme P 7→ P (u) est appelée sous-algèbre engendrée par u et notée K[u].
Notons que pour tout polynôme P , l’endomorphisme P (u) commute avec u ; il s’ensuit que les sous-espaces ker P (u)
et Im P (u) sont stables par u.
∀λ ∈ K, χu (λ) = det(λIdE − u)
∀λ ∈ K, χA (λ) = det(λIn − A)
En développant, on obtient :
Proposition 5.30 : trace, déterminant et polynôme caractéristique
Pour toute A ∈ Mn (K), nous avons χA (λ) = λn − tr (A)λn−1 + · · · + (−1)n det(A).
Remarque 5.31 :
n
Y
Si M = (mi,j )i,j est triangulaire supérieure, alors χM (X) = (X − mi,i ).
i=1
Remarque 5.36 :
• Attention : un vecteur propre est supposé non nul. Le sous-espace propre associé à la valeur propre λ est
constitué des vecteurs propres associés à la valeur propre λ et du vecteur nul.
• Les valeurs propres sont les racines du polynôme caractéristique (en dimension finie).
• Lorsque le corps de base est C, le dernier • permet d’affirmer que tout endomorphisme, toute matrice, admet au
moins une valeur propre (et donc un espace propre non réduit à {0}).
Exemple 5.37 :
1. Soit p la projection sur le sous-espace vectoriel F parallèlement à un supplémentaire G. Des valeurs propres de
p sont 0 et 1 ; de plus E0 (p) = G et E1 (p) = F .
2. Soit D l’opérateur de dérivation sur C ∞ (R, R). Alors tout réel est valeur propre de D. Le sous-espace propre
associé à la valeur propre λ est l’ensemble des solutions de l’équation différentielle y 0 = λy, c’est-à-dire Vect(x 7→
eλx ).
3. L’opérateur de dérivation D : K[X] → K[X] n’admet aucune valeur propre autre que 0, puisque l’équation
P 0 = λP n’admet aucune solution polynomiale non nulle.
4. Éléments propres des homothéties, des symétries, des rotations.
Remarque 5.38 :
• Si deux endomorphismes commutent, alors tout sous-espace propre de l’un est stable par l’autre.
En effet si x ∈ ker(u − λIdE ) alors u(v(x)) = v(u(x)) = v(λx) = λv(x) donc v(x) ∈ ker(u − λIdE ).
• En particulier tout sous-espace propre de u est stable par u.
Remarque 5.41 :
Soit K0 un sous-corps de K et M une matrice de Mn (K0 ). Alors le spectre de M dans K0 est contenu dans le spectre
de M dans K.
Exemple 5.42 :
0 1 0
Pour M = −1 0 0 , il vient χM (X) = (X − 1)(X 2 + 1) donc SpC (M ) = {1, i, −i} contient SpR (M ) = {1}.
0 0 1
Corollaire 5.44 : liberté des vecteurs propres associés à des valeurs propres distinctes
Toute famille de vecteurs propres associés à des valeurs propres distinctes deux à deux est libre.
La réciproque est fausse : X 2 − X est un polynôme annulateur de IdE , mais sa racine 0 n’est pas une valeur propre
de IdE .
Exemple 5.47 :
Soit p un projecteur. Alors p2 − p = 0 donc X 2 − X = X(X − 1) est un polynôme annulateur de p. Les valeurs
propres de p sont à chercher dans {0, 1}. Or 0 et 1 sont valeurs propres, d’où Sp(p) = {0, 1}.
Plus généralement, si F1 , . . . , Fp sont des sous-espaces stables par u dont E est somme directe, alors le polynôme
caractéristique de u est le produit des polynômes caractéristiques des endomorphismes induits par u sur F1 , . . . , Fp .
Corollaire 5.50 : encadrement de la dimension d’un espace propre
Soit E un K-espace vectoriel de dimension finie, u un endomorphisme de E, et λ une valeur propre de u, d’ordre
de multiplicité m dans χu . Alors :
1 ≤ dim Eλ (u) ≤ m.
Remarque 5.51 :
En particulier si λ est une racine simple de χu alors m = 1, donc dim Eλ (u) = 1.
χu (u) = 0.
Démonstration
HORS-PROGRAMME
Notons n = dim(E) et prouvons que χu (u)(x) = 0E pour tout x ∈ E. Déjà si x est nul alors l’égalité est claire.
Supposons désormais x 6= 0E , de sorte que (x) est une famille libre. Considérons
Par construction uν (x) est lié avec (x, u(x), . . . , uν−1 (x)) qui est libre, donc uν (x) se décompose en
Complétons la famille (x, u(x), . . . , uν−1 (x)) en une base B de E, dans laquelle la matrice de u est :
0 a0 ∗
.. .. ..
1 . . . !
..
C(P ) ∗ν,n−ν
[u]B =
.. =
. 0 aν−2 . 0n−ν,ν M
1 aν−1 ∗
0 ··· ··· 0 M
où P (X) = X ν −aν−1 X ν−1 −· · ·−a1 X −a0 . Constatons que P (u)(x) = 0E . Un calcul classique prouve que χC(P ) = P ,
ce qui justifie a posteriori que la matrice C(P ) est appelée matrice compagnon de P . En effet
0 −a0
1
0 −a1
.. .. ..
C(P ) = . . . .
.. ..
.
0 .
1 −an−1
n−1
X
Ajoutons à la première ligne L1 du polynôme caractéristique de cette matrice la combinaison linéaire X k Lk+1 :
k=1
n−1
X
n k
X 0 ··· 0 a0 0 0 ··· 0 X + ak X
.. ..
k=0
−1 .
X . a1 .. ..
−1 X . . a1
..
χC(P ) (X) = .. ..
= ,
. . 0 . .. .. ..
..
. . 0 .
..
.
X .
.. ..
. 0 .
−1 X + an−1
−1 X + an−1
n−1
! n−1
X X
n−1 n−1 n k
ce qui donne χC(P ) (X) = (−1) × (−1) × X + ak X c’est-à-dire χC(P ) (X) = X n + ak X k = P (X) .
k=0 k=0
On remarque alors que
χu (X) = χC(P ) (X) × χM (X)
puis en évaluant en u
χu (u) = χM (u) ◦ χC(P ) (u)
et enfin en appliquant à x :
χu (u)(x) = χM (u) χC(P ) (u)(x) = χM (u) 0E = 0E .
67
6.1. SÉRIES RÉELLES OU VECTORIELLES MP 2020-21
1 1 1 1
est convergente. En effet : ∀k ∈ N∗ ,
P
2. La série = − , d’où :
n(n + 1) k(k + 1) k k+1
n n n
X 1 X 1 X 1 1
= − = 1− .
k(k + 1) k k+1 n+1
k=1 k=1 k=1
+∞
X 1
La somme de la série est : = 1. C’est un cas de série « télescopique » :
n=1
n(n + 1)
P
3. La série un est télescopique lorsqu’il existe une suite de réels (vn )n telle que un = vn −vn+1 pour tout entier n.
Xn
P
La somme partielle vérifie par conséquent uk = v0 − vn+1 . La série un est alors convergente si et seulement
k=0
+∞
X
si la suite (vn )n converge, et dans ce cas : un = v0 − lim vn .
n→+∞
n=0
Remarque 6.7 :
Cette condition n’est pas du tout suffisante : il existe des séries dont le terme général converge vers 0 mais pas
convergentes pour autant. Par exemple la série harmonique !
Définition 6.8 : série grossièrement divergente
Une série dont le terme général ne converge pas vers 0 est dite grossièrement divergente.
Exemple 6.9 :
La série de terme général (−1)n est grossièrement divergente.
Proposition 6.10 : convergence des séries à termes complexes — rappel de MPSI
P P P
Soit (zn )n∈N une suite complexe. Alors la série zn converge si et seulement si les deux séries <(zn ) et =(zn )
convergent et, dans ce cas :
+∞
X +∞
X +∞
X
zn = <(zn ) + i =(zn ).
n=0 n=0 n=0
La propriété « absolue convergence implique convergence » peut ensuite être étendue aux séries à valeurs complexes
en séparant de la même façon parties réelle et imaginaire.
Corollaire 6.13 : CA⇒ CS en dimension finie
Toute série absolument convergente, à termes dans un espace vectoriel réel de dimension finie, est convergente.
Exemple 6.14 :
X (−1)n
1. La série réelle est absolument convergente, donc convergente.
n(n + 1)
P einx
2. La série complexe est absolument convergente, donc convergente.
n2
P An kAn k
3. Pour toute matrice orthogonale A ∈ O(p), la série de matrices est absolument convergente car =
√ n2 n2
p
.
n2
P An
Ainsi : si A ∈ O(p) alors est convergente.
n2
Remarque 6.15 :
P
ATTENTION ! ! ! La réciproque est fausse : une série un peut être convergente sans que la série des valeurs
P
absolues/modules |un | le soit. On dit alors qu’elle est semi-convergente.
Exemple 6.16 :
X (−1)n (2n + 1)
La série est semi-convergente. En effet :
n(n + 1)
(−1)n (2n + 1) (−1)n (−1)n−1
• Elle converge car = − , d’où par télescopage :
n(n + 1) n+1 n
+∞
X (−1)n (2n + 1)
= −1.
n=1
n(n + 1)
(2n + 1) 2 P 2
• Elle n’est pas absolument convergente, car ≥ et la série tend vers +∞.
n(n + 1) n+1 n+1
X
Soit z un nombre complexe. La série géométrique z n est convergente si et seulement si |z| < 1. Sa somme est
alors :
+∞
X 1
zn = .
n=0
1 − z
Remarque 6.18 :
Remarquons qu’on sait aussi calculer explicitement le reste, ce qui est assez rare pour une série :
z n+1
Rn = .
1−z
Remarque 6.21 :
1 1
ATTENTION ! La notation n’a pas de sens en général. En particulier l’écriture est à proscrire !
e−u In − A
Remarque 6.23 :
1. Pour A = R ou A = C, on retrouve la fonction exponentielle réelle ou complexe déjà connue. Voir plus bas.
2. On a ainsi une définition de l’exponentielle d’un endomorphisme d’un espace vectoriel de dimension finie, ou
d’une matrice carrée (réelle ou complexe).
3. Au chapitre 12 (fonctions vectorielles, exemple 3.7) nous généraliserons bon nombre de propriétés de l’exponen-
tielle d’un réel ou d’un complexe (dérivée, exponentielle de la somme. . . ) aux exponentielles d’éléments d’un
espace vectoriel normé.
Exemple 6.24 : !
cos θ − sin θ
Soit R(θ) = A = la matrice de la rotation plane d’angle θ. Par récurrence immédiate :
sin θ cos θ
+∞ +∞
X cos nθ X sin nθ
! −
n! n!
n cos nθ − sin nθ n=0 n=0
A = d’où : exp A = +∞ +∞
.
sin nθ cos nθ
X sin nθ X cos nθ
n=0
n! n=0
n!
Or :
+∞ +∞ +∞ inθ
X cos nθ X sin nθ X e eiθ cos θ
+i = = e = e cos(sin θ) + i sin(sin θ) .
n=0
n! n=0
n! n=0
n!
D’où : !
cos θ cos(sin θ) − sin(sin θ)
exp A = e .
sin(sin θ) cos(sin θ)
Exemple 6.28 :
X (−1)n 1
La série harmonique alternée est convergente, car elle est alternée et ( )n est décroissante et converge
n n
vers 0.
Ce type de séries convergentes est particulièrement avantageux car on a beaucoup de renseignements sur la somme
de la série, et sur le reste d’ordre n :
Corollaire 6.29 : propriétés des séries réelles vérifiant le CSSA
X n
X
Soit un une série vérifiant le critère spécial des séries alternées. On note Sn = uk la somme partielle et
k=0
+∞
X
Rn = uk le reste d’ordre n de cette série. Alors pour tout n ∈ N :
k=n+1
1. La somme de la série est comprise entre les sommes partielles consécutives Sn et Sn+1 .
6.2.1 Définition
Définition 6.30 : produit de Cauchy de séries
On appelle produit de Cauchy de deux suites (un )n et (vn )n d’éléments de A la suite (wn )n définie par :
n
X X
∀n ∈ N, wn = uk vn−k = ui vj .
k=0 i+j=n
6.2.2 Convergence
Étudions d’abord la convergence du produit de Cauchy de deux séries convergentes à termes positifs :
Lemme 6.32 : produit de Cauchy de séries à termes réels positifs
P P P
Si les séries un et vn de réels positifs sont convergentes, alors leur produit de Cauchy wn est convergent,
et : ! +∞ !
+∞
X +∞
X X
wn = un vn .
n=0 n=0 n=0
Ce résultat se généralise aux séries absolument convergentes d’une algèbre normée unitaire de dimension finie :
Théorème 6.33 : produit de Cauchy de séries d’éléments d’une algèbre normée
P P
Soit A une algèbre normée unitaire de dimension finie. Si les séries un et vn d’éléments de E sont absolument
P
convergentes, alors leur produit de Cauchy wn est absolument convergent et :
+∞ +∞
! +∞ !
X X X
wn = un vn .
n=0 n=0 n=0
Exemple 6.37 :
X 1
La série converge, car :
n2
n n
X 1 X 1
2
≤ 1 + ≤ 2.
k (k − 1)k
k=1 k=2
Remarque 6.38 :
erreur classique !
Malheureusement, ce raisonnement ne donne qu’un majorant de la somme de la série et ne permet pas de déterminer
cette somme. On peut seulement dire que la somme de la série est la borne supérieure des sommes partielles.
Corollaire 6.39 : cas classiques de convergence de séries à termes positifs — rappel de MPSI
P P
Soit un et vn deux séries de nombres réels à termes positifs.
P P P P
1. Supposons 0 ≤ un ≤ vn . Alors : si vn converge alors un converge ; si un diverge alors vn diverge.
P P P
2. Supposons un ≥ 0, vn ≥ 0 et un = O(vn ). Alors : si vn converge alors un converge ; si un diverge alors
P
vn diverge.
P P
3. Supposons un ≥ 0, vn ≥ 0 et un ∼ vn . Alors : les séries un et vn sont de même nature (toutes deux
convergentes ou toutes deux divergentes).
Remarque 6.40 :
1. On pourra souvent utiliser ce résultat en comparant une série avec une série de Riemann.
P1 1 1 1 1
Par exemple la série sin est convergente, car sin ∼ 2 .
n n n n n
2. Attention, les séries sont de même nature mais leurs sommes ne sont pas pour autant égales !
6.3.2 Comparaison d’une série à termes positifs à une intégrale — rappel de MPSI
Théorème 6.41 : comparaison série/intégrale — rappel de MPSI
Soit f une fonction continue par morceaux sur R+ , positive et décroissante. Alors :
Z n
1. La série de terme général wn = f (t)dt − f (n) est convergente.
n−1
X Z n
2. La série f (n) est convergente si et seulement si la suite d’intégrales f (t)dt est convergente.
0
Exemple 6.44 :
X 1
On retrouve que la série converge et que sa somme est inférieure ou égale à 2.
n2
Remarque 6.45 :
X 1
La somme de la série de Riemann pour α > 1 est notée ζ(α).
nα
Prolongée à C \ {1} (dur), cette fonction zeta de Riemann joue un rôle très important dans de nombreuses branches
des mathématiques. La célèbre hypothèse de Riemann, toujours indémontrée depuis 1859, conjecture que les zéros de
1
cette fonction, autres que les entiers négatifs pairs, ont tous pour partie réelle . De ce résultat dépend, par exemple,
2
la répartition des nombres premiers. . .
1
Les calculs actuels ont prouvé que les 1013 premiers zéros de la fonction zeta sont effectivement d’abscisse
2
et des tests statistiques portant sur d’autres zéros les donnent bien sur la même droite. Mais même 1013 exemples
convaincants ne constituent pas une démonstration !
Corollaire 6.46 : convergence des séries de Bertrand (hors-programme)
X 1
La série de Bertrand est convergente si et seulement si α > 1 ou (α = 1 et β > 1).
nα (ln n)β
Exemple 6.48 :
X n! n!
Étudions la série n
. Soit n ∈ N. Posons un = n . Alors :
n n
un+1 (n + 1)! nn nn 1
= = = .
un (n + 1) n+1 n! (n + 1) n (1 + n1 )n
n
1 un+1 1
Or lim 1+ = e, d’où lim = < 1, donc la série converge.
n→+∞ n n→+∞ un e
Remarque 6.49 :
un+1
• Si la suite tend vers 1 par valeurs supérieures alors la suite (un )n est croissante à partir d’un certain
un P
rang, et par conséquent la série un est grossièrement divergente.
un+1
• Si tend vers 1 par valeurs inférieures ou de façon quelconque, alors on ne peut rien conclure.
un
un+1 P
• Le fait que ≤ k ≤ 1 ne sert à RIEN pour étudier la convergence de un .
un
6.3.4 Sommation des relations de comparaison, pour les séries réelles à termes positifs
Étant données deux séries convergentes à termes réels positifs, la comparaison de leurs termes généraux permet de
comparer leurs restes d’ordre n :
ThéorèmeX 6.50 X : comparaison des restes des séries convergentes à termes réels positifs
Soit un et vn deux séries convergentes à termes réels positifs. On désigne par rn et rn0 leurs restes respectifs
n n
d’ordre n.
1. Si un = O(vn ), alors rn = O(rn0 ).
2. Si un = o(vn ), alors rn = o(rn0 ).
3. Si un ∼ vn , alors rn ∼ rn0 .
Exemple 6.51 :
P 1 1 1
Trouvons un équivalent du reste d’ordre n de la série . Remarquons que 2 ∼ . Or :
n2 n n(n + 1)
+∞ +∞
X 1 X 1 1 1
= − = .
k(k + 1) k k+1 n+1
k=n+1 k=n+1
P 1 1
On en déduit que le reste de la série 2
est équivalent à .
n n
De même, étant données deux séries divergentes à termes positifs, la comparaison de leurs termes généraux permet de
comparer leurs sommes partielles d’ordre n :
ThéorèmeX 6.52 X : comparaison des sommes partielles des séries divergentes à termes réels positifs
Soit un et vn deux séries divergentes à termes réels positifs. On désigne par Sn et Sn0 leurs sommes partielles
n n
respectives d’ordre n.
1. Si un = O(vn ), alors Sn = O(Sn0 ).
2. Si un = o(vn ), alors Sn = o(Sn0 ).
3. Si un ∼ vn , alors Sn ∼ Sn0 .
Exemple 6.53 :
n n n
X 1 1 1 X 1 X 1 1
Trouvons un équivalent de . Remarquons que ∼ . Or ∼ ln n, d’où ∼ ln n.
2k − 1 2k − 1 2k k 2k − 1 2
k=1 k=1 k=1
Remarque 6.55 :
La√valeur de K peut être calculée de diverses façons, notamment à partir des intégrales de Wallis. On obtient
K = 2π. La formule de Stirling s’écrit donc :
n n √
n→+∞
n! ∼ 2πn.
e
7.1 Diagonalisation
7.1.1 Définition d’un endomorphisme diagonalisable
Définition 7.1 : endomorphisme diagonalisable
On dit que u est diagonalisable lorsqu’il existe une base B de E dans laquelle la matrice de u est diagonale.
Proposition 7.2 : CNS de diagonalisabilité
L’endomorphisme u est diagonalisable s’il vérifie une des trois propriétés équivalentes suivantes :
1. Il existe une base de E formée de vecteurs propres de u.
λ1
2. Il existe une base B de E dans laquelle la matrice de u est diagonale : MatB
..
B (u) =
. .
λn
L
3. La somme directe des sous-espaces propres de u est égale à E : Eλ (u) = E.
λ∈Sp(u)
X
Si les pλ sont les projecteurs associés à la somme directe alors on a la décomposition spectrale de u : u= λ pλ .
λ∈Sp(u)
Réciproquement : si u est une combinaison linéaire de projecteurs associés à une somme directe, alors u est diagona-
lisable.
Problème : ce n’est pas parce que Sp(u) est connu que u est diagonalisable ! Il nous faut maintenant des caractéri-
sations de la diagonalisabilité.
77
7.1. DIAGONALISATION MP 2020-21
Soit E un espace vectoriel de dimension finie. Un endomorphisme u de E est diagonalisable si et seulement si son
polynôme caractéristique est scindé et si la dimension de chaque sous-espace propre est égale à l’ordre de multiplicité
de la valeur propre correspondante.
Remarque 7.8 :
Notons que si le polynôme minimal de u est scindé à racines simples, alors il en est de même de ses diviseurs. Par
conséquent si u est diagonalisable alors pour tout sous-espace F stable par u, l’endomorphisme de F induit par u est
aussi diagonalisable.
Exemple 7.9 :
Les projections et les symétries sont diagonalisables. En effet :
• Une projection est une application linéaire p telle que p2 = p. Le polynôme X 2 − X = X(X − 1), scindé et à
racines simples, annule p.
• Une symétrie est une application linéaire s telle que s2 = IdE . Le polynôme X 2 − 1 = (X − 1)(X + 1), scindé et
à racines simples, annule s.
∃P ∈ GLn (K), A = P DP −1 ,
1 1 0
Montrer que la matrice A est diagonalisable. La diagonaliser.
7.2 Trigonalisation
Toujours les mêmes hypothèses : u endomorphisme d’un K-espace vectoriel E de dimension finie.
∃P ∈ GLn (K) A = P T P −1
7.3 Applications
Ces applications sont des grands classique des oraux.
Il faut connaître par coeur ces techniques et être au point sur les calculs.
Toujours les mêmes hypothèses : u endomorphisme d’un K-espace vectoriel E de dimension finie.
Exemple 7.19 :
Trouver le commutant de la matrice A :
5 2 −4
A = 4 3 −4 .
4 2 −3
∀k ∈ N, Ak = P Dk P −1
et il suffit donc de calculer les puissances de la matrice diagonale D et l’inverse de P pour en déduire les puissances
de A.
Exemple 7.20 :
On peut reprendre l’exemple 7.11 : Soit A la matrice suivante :
0 −1 1
A = −1 0 1 .
1 1 0
Exemple 7.22 :
Suite récurrente linéaire d’ordre 2, cas d’une matrice trigonalisable.
Trouver la suite récurrente (un )n satisfaisant :
∀n ∈ N, un+2 = 2un n + 1 − un
3 1 3
En particulier le déterminant d’une matrice est de produit de ses valeurs propres, et la trace d’une matrice est la
somme de ses valeurs propres.
tr (Ak+1 ) k→+∞
−→ λ i0 .
tr (Ak )
Ceci permet également d’obtenir une approximation du rayon spectral ρ(A) = max λ∈Sp(A) |λ|.
Les propriétés des endomorphismes en dimension finie s’appliquent aux matrices carrées. En particulier :
Proposition 7.31 : propriétés des matrices carrées nilpotentes
1. Une matrice carrée est nilpotente si et seulement si elle est trigonalisable avec pour seule valeur propre 0.
2. L’indice de nilpotence d’une matrice de Mn (K) est inférieur ou égal à n.
3. Si une matrice A ∈ Mn (K) est nilpotente d’indice n, alors elle est semblable à la matrice nilpotente de Jordan :
0 1 0 ... 0
. . . ..
.. .. .. ... .
. .. ..
Jn = .. . . 0 ,
.
..
.
.
. 1
0 ... ... ... 0
k
M
3. Les sous-espaces caractéristiques sont supplémentaires dans E : E = Fλi (u).
i=1
4. Pour tout i ∈ [[1, k]], on a dim(Fλi (u)) = mi .
5. L’endomorphisme u|Fλi induit par u sur Fλi est la somme d’une homothétie et d’un endomorphisme nilpotent.
0 . . . 0 Tk 0 . . . 0 λi
Exemple 7.35 :
1 0 0 0
−1 4 1 −2
Trigonalisons A = à l’aide des espaces caractéristiques.
2 1 2 −1
1 2 1 0
Le polynôme caractéristique de A est χA (X) = (X − 1)(X − 2)3 . Après calculs :
EPCC : exercices 59, 67, 69, 70, 72, 73, 75, 88, 91.
Dans ce chapitre, nous allons apprendre à compter (section 1) puis à additionner avec une main (section 2) et enfin
à additionner avec deux mains (section 3).
8.1 Dénombrabilité
Dans cette première partie, nous allons apprendre à compter !
n 0 1 −1 2 −2 3 −3 ...
f (n) 0 1 2 3 4 5 6 ...
85
8.1. DÉNOMBRABILITÉ MP 2020-21
Exemple 8.4 :
L’hôtel de Hilbert est une curiosité mathématique digne de trois étoiles dans le guide « relais et châteaux ».
Cet hôtel possède une infinité dénombrable de chambres, numérotées 0, 1, 2, . . .
Supposons que l’hôtel soit complet : chaque chambre contient un client et un seul.
1. Un client supplémentaire arrive ? Pas de problème ! Les clients déjà en place se décalent d’une chambre, le dernier
arrivé va dans la chambre 0 (ceci illustre ℵ0 + 1 = ℵ0 ).
2. Un nombre fini k de clients arrive ? Pas de problème ! Chaque client déjà en place va k chambres plus loin, et on
case les k nouveaux arrivants dans les chambres 0 à k − 1 (ceci illustre ℵ0 + k = ℵ0 ).
3. Une infinité dénombrable de clients arrive ? Pas de problème ! Chaque client déjà en place va dans la chambre
de numéro double de sa chambre actuelle (0 → 0, 1 → 2, 2 → 4, 3 → 6, . . . ) et les nouveaux clients s’intercalent
dans les chambres de numéros impairs (ceci illustre 2ℵ0 = ℵ0 ).
Remarque 8.8 :
Cette fonction alambiquée n’est que la mise en forme de l’énumération évidente de N2 par balayage diagonal :
5 20 26 33 41 50 60
4 14 19 25 32 40 49
3 9 13 18 24 31 39
2 5 8 12 17 23 30
1 2 4 7 11 16 22
0 0 1 3 6 10 15
q/p 0 1 2 3 4 5
Exemple 8.11 :
[ p
L’ensemble Q est dénombrable car Q = avec Z × N∗ dénombrable, est dénombrable.
∗
q
(p,q)∈Z×N
Remarquons que les termes non nuls d’une famille de réels positifs ne peuvent pas être « très nombreux » :
Proposition 8.16 : support d’une famille sommable de réels positifs
Soit (ui )i∈I une famille sommable de réels positifs. Alors son support K = {i ∈ I / ui 6= 0} est fini ou dénombrable.
Théorème 8.17 : de Fubini version faible, ou de sommation par paquets, pour les familles de réels
positifs — ADMIS
Soit (ui )i∈I une famille de nombres réels positifs et (In )n∈N une partition dénombrable de I.
Alors la famille (ui )i∈I est sommable si et seulement si les deux conditions suivants sont vérifiées :
1. Pour tout n ∈ N, la sous-famille (ui )i∈In est sommable.
!
X X
2. La série ui est convergente.
n i∈In
Dans ce cas : !
+∞
X X X
ui = ui .
n=0 i∈In i∈I
Remarque 8.18 :
Si l’une des deux hypothèses n’est pas réalisée, alors on écrit :
+∞
!
X X X
ui = ui = +∞.
n=0 i∈In i∈I
Remarque 8.19 :
La réciproque est fausse : la famille ((−1)n )n n’est pas sommable mais les sommes partielles par paquets de 2
donnent l’illusion d’une convergence.
Proposition 8.21 : inégalité de la moyenne, ou inégalité triangulaire généralisée, pour les familles som-
mables
Soit (ui )i∈I une famille sommable de nombres complexes. Alors :
X X
ui ≤ |ui |.
i∈I i∈I
Remarque 8.22 :
cas des familles indexées par N ou Z
P
1. Une famille (un )n∈N (indexée par N) est sommable si et seulement si la série un est absolument convergente.
X +∞
X
Dans ce cas : un = un .
n∈N n=0
P P
2. Une famille (un )n∈Z est sommable si et seulement si les deux séries un et u−n sont absolument convergentes.
X X+∞ +∞
X
Dans ce cas : un = un + u−n .
n∈Z n=0 n=1
+∞
X +∞
X
uσ(n) = un .
n=0 n=0
Remarque 8.24 :
La condition de convergence absolue est indispensable à la validité du théorème. Considérons la série semi-
(−1)n−1
et soit S sa somme (on peut montrer que S = ln 2). Soit ϕ : N∗ → N∗
P
convergente xn avec xn =
n
définie par ϕ(3k + 1) = 2k + 1, ϕ(3k + 2) = 4k + 2 et ϕ(3k + 3) = 4k + 4. On vérifie facilement que ϕ est une bijection
de N dans N, sa bijection réciproque étant définie par des congruences modulo 4).
P
Sommons alors par paquets de 3 la série xϕ(n) . On a
1 1 1 1 1 1 1
xϕ(3k+1) + xϕ(3k+2) + xϕ(3k+3) = − − = − = = O .
2k + 1 4k + 2 4k + 4 4k + 2 4k + 4 2(2k + 1)(2k + 2) k2
Ceci montre que la nouvelle série converge encore, mais que sa somme est la moitié de la somme de la série initiale !
Remarque 8.26 :
Attention, si l’une au!moins des hypothèses n’est pas réalisée alors la famille (ui )i∈I n’est pas forcément sommable,
+∞
X X
et la somme ui peut exister sans représenter la somme de la famille ! Par exemple, pour la famille ((−1)n )n∈N
n=0 i∈In
Attention, les deux premiers points sont importants ! Sinon la 2e égalité n’a pas de sens.
On continue à broder :
Corollaire 8.29 : somme double à variables séparables
Soit (ap )p∈N et (bq )q∈N deux familles sommables de nombres complexes. Alors la famille (ap bq )(p,q)∈N×N est som-
mable et :
X X X
ap bq = ap × bq .
(p,q)∈N×N p∈N q∈N
Remarque 8.35 :
On rappelle que le théorème ci-dessus n’est pas valable pour les séries semi-convergentes. Voir exemple dans le
chapitre 6, séries de nombres réels ou de vecteurs.
EPCC : aucun !
Exemple 9.2 :
Posons fn (x) = xn pour x ∈ [0, 1]. La suite des fonctions fn converge simplement vers la fonction f telle que :
f (x) = 0 si x ∈ [0, 1[ et f (1) = 1.
Remarque 9.3 :
L’exemple précédent montre que la limite d’une suite de fonctions continues n’est pas nécessairement continue.
Remarque 9.5 :
93
9.1. CONVERGENCE D’UNE SUITE DE FONCTIONS MP 2020-21
Rappelons que dans l’ensemble des fonctions bornées de A dans K, l’application g 7→ sup |g(x)| est une norme
x∈A
notée k k∞ . Ainsi la convergence uniforme sur A peut s’écrire :
Il s’agit donc de la convergence au sens de la norme k k∞ . Cette norme est appelée norme de la convergence uniforme.
Théorème 9.6 : CU ⇒ CS
Pour les suites de fonctions, la convergence uniforme implique la convergence simple.
Remarque 9.7 :
1. La réciproque du théorème est fausse : dans l’exemple 9.2 du paragraphe précédent (fn (x) = xn pour x ∈ [0, 1]),
on a : kfn − f k∞ = sup |fn (x) − f (x)| = 1, qui ne tend pas vers 0.
x∈[0,1]
2. Utile : pour démontrer qu’une suite de fonctions convergeant simplement vers f ne converge pas uniformément,
il suffit de trouver une suite (xn ) d’éléments de A telle que fn (xn ) − f (xn ) ne tende pas vers 0.
En effet : kfn − f k∞ ≥ |fn (xn ) − f (xn )|.
Exemple 9.8 :
Toujours avec le même exemple (fn (x) = xn pour x ∈ [0, 1]), prouver la non-convergence uniforme à l’aide du
second point de la remarque précédente (à l’aide de xn bien choisi).
Remarque 9.9 :
Dans le cas d’une suite de fonctions de R dans R, la convergence uniforme d’une suite fn vers f s’interprète
graphiquement de la façon suivante : pour tout ε > 0, le voisinage tubulaire compris entre les graphes des fonctions
f − ε et f + ε contient tous les graphes des fonctions fn à partir d’un certain rang.
Exemple 9.10 :
La suite (fn )n converge simplement vers 0, mais pour tout n ∈ N∗ , fn ( n1 ) = 1 : ainsi la convergence n’est pas
uniforme.
3. Soit la suite de fonctions (fn )n définies sur R+ par :
0 si x ∈ [0, n]
x−n si x ∈ [n, n + 1]
fn (x) =
n+2−x si x ∈ [n + 1, n + 2]
x ∈ [n + 2, +∞[.
0 si
La suite (fn )n converge simplement vers 0, mais pour tout n ∈ N, fn (n + 1) = 1 : ainsi la convergence n’est pas
uniforme.
Remarque 9.14 :
La convergence uniforme est la convergence de l’espace vectoriel normé (B(A, K), k · k∞ ). On peut démontrer que
c’est un espace de Banach (EVN complet).
Remarque 9.16 :
1. Remarquons que (B(A), k · k∞ ) est un EVN. Supposons que A est compact, auquel cas C 0 (A) ⊂ B(A).
Le théorème s’interprète ainsi : lorsque A est compact, le sous-espace C 0 (A, K) est une partie fermée de l’espace
(B(A), k · k∞ ).
2. Plus généralement, il suffit que la suite de fonctions continues (fn )n converge uniformément sur tout compact
pour que sa limite soit continue.
Si pour tout n ∈ N la fonction fn admet une limite bn en a, alors la suite (bn )n converge vers b ∈ K et f admet b
pour limite en a :
lim lim fn (x) = lim lim fn (x) .
x→a n→+∞ n→+∞ x→a
En résumé : si fn CU vers f et si pour tout n, lim fn = bn , alors lim lim fn = lim lim fn .
a a n n a
Remarque 9.18 :
Si A est une partie de R contenant un intervalle de la forme [c, +∞[ ou ] − ∞, c], alors ce résultat s’étend au cas
où chaque fonction fn admet une limite en +∞ ou −∞.
On peut étendre aux séries de fonctions certaines propriétés des suites de fonctions :
Proposition 9.20 : extension aux séries de fonctions des propriétés précédentes
P
1. La convergence uniforme implique la convergence simple : si la série de fonctions un converge uniformément
P
sur A, alors la série numérique un (x) converge pour tout x ∈ A.
2. La somme d’une série de fonctions continues qui converge uniformément est continue.
3. La somme d’une série de fonctions continues qui converge uniformément sur tout compact est continue.
P
4. Si la série de fonctions un converge uniformément et si chaque fonction un admet une limite `n en un point
P
a ∈ A, alors la série `n converge et :
+∞
X +∞
X
lim un (x) = lim un (x).
x→a x→a
n=0 n=0
Remarque 9.21 :
P
La convergence uniforme de la série de fonctions un équivaut à la convergence uniforme de la suite des sommes
partielles (Sn ). Elle implique donc la convergence uniforme vers 0 du terme général un .
Dans la pratique : pour montrer qu’une série de fonctions ne converge pas uniformément, il suffit de trouver une
suite (xn ) de A telle que un (xn ) ne converge pas vers 0.
P
Il suffit donc qu’il existe une série majorante αn , c’est-à-dire telle que pour tout n ∈ N : kun k∞ ≤ αn qui
converge.
Exemple 9.24 :
P x e−nx
La série de fonctions converge normalement sur R+ car pour tout x ≥ 0 :
n
x e−nx n x e−nx 1
= 2
≤ 2 (car ue−u ≤ 1).
n n n
P 1
et la série converge.
n2
Remarque 9.26 :
La réciproque est fausse comme le montre l’exemple suivant.
Exemple 9.27 :
P (−1)n
• Pour tout x ∈ R, la série est semi-convergente, d’après le critère spécial des séries alternées.
x2 + n
(−1)n
1 n→+∞ 1 P1
• La convergence pour x fixé n’est pas absolue, car 2 = ∼ et diverge. Ceci prouve
x + n x2
+ n n n
(−1)n
= 1.
que la série de fonctions ne converge pas normalement ; d’ailleurs
x →
7
x2 + n
∞ n
• Cependant cette série converge uniformément sur R, car le reste d’ordre n d’une série vérifiant le critère spécial
des séries alternées est majoré en valeur absolue par le premier terme négligé, donc tend vers 0 uniformément.
Remarque 9.28 :
Le dernier point de la remarque donne une méthode très efficace pour prouver la convergence uniforme de
certaines séries de fonctions vérifiant le CSSA.
P
Plus précisément, soit fn une série de fonctions vérifiant le CSSA et telle que |fn | ≤ αn avec (αn )n suite réelle
P
de limite nulle. Alors fn converge uniformément.
En effet pour tout x, |Rn (x)| ≤ |fn+1 (x)| ≤ αn+1 donc kRn k∞ ≤ αn+1 .
Les normes sur F étant équivalentes, les normes ainsi définies dans B(A, F ) sont équivalentes. De plus, F étant complet,
B(A, F ) l’est aussi.
On peut étendre aux suites et séries d’applications de A dans F les résultats suivants :
Proposition 9.29 : définition
1. Une suite (fn )n d’applications de A dans F converge simplement lorsque pour tout x ∈ A la suite (fn (x))n
converge dans F .
La suite (fn )n converge uniformément vers f lorsque la suite (kfn − f k∞ )n converge vers 0.
2. La convergence uniforme des suites de fonctions implique la convergence simple, mais la réciproque est fausse.
P P
3. Une série un d’applications de A dans F converge simplement lorsque pour tout x ∈ A la série un (x)
converge.
P
La série un converge uniformément lorsque la suite des restes d’ordre n converge uniformément vers 0.
P P
La série un converge normalement lorsque la série kun k∞ converge.
4. La convergence normale des séries de fonctions implique la convergence uniforme et la convergence absolue en
tout point de A, mais les réciproques sont fausses.
5. La limite uniforme d’une suite d’applications continues sur A est continue sur A. En particulier, la somme d’une
série uniformément convergente d’applications continues est continue.
6. On peut échanger limite en un point et limite d’une suite uniformément convergente, ou limite en un point et
somme d’une série uniformément convergente.
9.3.2 Exemples
Soit A une algèbre normée unitaire de dimension finie et B(0, 1) ⊂ A la boule ouverte de centre 0 de rayon 1.
Alors :
1. L’application B(0, 1) → A, u 7→ (e − u)−1 , somme de la série de fonctions continues fn : u 7→ un qui converge
normalement sur tout compact de la boule B(0, 1), est continue sur B(0, 1).
1 n
2. L’application A → A, u 7→ exp(u), somme de la série de fonctions continues gn : u 7→ u qui converge
n!
normalement sur tout compact de A, est continue sur A tout entier.
• Cette subdivision n’est pas unique : certains points de subdivision peuvent être retirés sans nuire à la définition,
et il est toujours possible d’ajouter arbitrairement des points de subdivision.
• Toute subdivision contenant une subdivision adaptée à f est adaptée à f .
• Cf. le cours de Première année pour plus de détails.
Remarque 9.33 :
On montre facilement à l’aide de cette proposition que l’ensemble des fonctions en escalier sur [a, b] est un sous-
espace vectoriel de B([a, b], F ), noté E([a, b], F ) (une fonction en escalier est bornée).
Définition 9.34 : fonction en escalier sur R
Plus généralement, on dit qu’une fonction f : R → F est en escalier sur R lorsqu’il existe un segment sur lequel
elle est en escalier et en dehors duquel elle est nulle.
L’ensemble des fonctions en escalier sur R est un sous-espace vectoriel de B(R, F ), noté E(R, F ).
Remarque 9.35 :
Il est clair également que si f est en escalier sur [a, b], alors x 7→ kf (x)k est aussi en escalier sur [a, b].
Remarque 9.38 :
Comme pour les fonctions en escalier, on montre facilement que l’ensemble des fonctions continues par morceaux
sur [a, b] est un sous-espace vectoriel de B([a, b], F ), noté CM([a, b], F ).
Définition 9.39 : fonction vectorielle continue par morceaux sur un intervalle
Plus généralement, on dit qu’une fonction f est continue par morceaux sur un intervalle I de R lorsque sa restriction
à tout segment de I est continue par morceaux.
L’ensemble des fonctions continues par morceaux sur I est un sous-espace vectoriel de F(R, F ), noté CM(I, F ).
Exemple 9.40 :
Les fonctions inverse sur R∗ et identité sur R sont continues par morceaux.
Remarque 9.41 :
Il est à noter qu’une fonction continue par morceaux sur un intervalle quelconque n’est pas toujours bornée sur cet
intervalle.
Considérer par exemple la fonction identité sur R.
9.4.3 Approximation uniforme des fonctions continues par morceaux par des fonctions
en escalier
Théorème 9.42 : E([a, b], F ) est dense dans C([a, b], F )
Toute fonction continue sur [a, b] et à valeurs dans F est limite uniforme d’une suite de fonctions en escalier sur
[a, b].
Ce résultat peut être étendu aux fonctions continues par morceaux sur [a, b] :
Corollaire 9.43 : E([a, b], K) est dense dans CM([a, b], K)
Toute fonction continue par morceaux sur [a, b] est limite uniforme d’une suite de fonctions en escalier sur [a, b].
9.4.4 Approximation uniforme des fonctions continues par des fonctions affines par
morceaux
Soit f une fonction définie sur [a, b] à valeurs dans un espace vectoriel normé F de dimension finie.
Définition 9.44 : fonction vectorielle affine par morceaux sur un segment
On dit que f est affine par morceaux lorsqu’il existe une subdivision σ = (xi )i∈[[0,n]] de [a, b] telle que la restriction
de f à chaque intervalle fermé [xi , xi+1 ] soit affine sur cet intervalle.
Théorème 9.45 : AM([a, b], K) est dense dans C([a, b], K)
Toute fonction continue sur [a, b] est limite uniforme d’une suite de fonctions affines par morceaux sur [a, b].
9.4.5 Approximation uniforme des fonctions continues par des fonctions polynomiales
Conformément au programme nous admettrons les deux théorèmes suivants, dus à Karl Weierstrass :
Théorème 9.46 : premier théorème de Weierstrass
Toute fonction continue sur [a, b], à valeurs réelles ou complexes, est limite uniforme d’une suite de fonctions
polynomiales sur [a, b].
Définition 9.47 : polynôme trigonométrique
On appelle polynôme trigonométrique toute combinaison linéaire de fonctions de la forme x 7→ eikωx (ou x → 7
2π
cos kωx et x 7→ sin kωx), où k est un entier naturel et ω = .
T
Théorème 9.48 : deuxième théorème de Weierstrass
Toute fonction continue sur R, à valeurs réelles ou complexes, T -périodique est limite uniforme d’une suite de
polynômes trigonométriques sur R.
Remarque 9.49 :
Les « séries de Fourier » donnent une façon d’obtenir une suite de polynômes trigonométriques convergeant uni-
formément vers une fonction continue périodique, de classe C 1 par morceaux.
Elles sont étudiées dans les Écoles d’ingénieur.
En particulier si f est une fonction à valeurs complexes alors f est dérivable en t0 si et seulement si sa partie réelle et
sa partie imaginaire sont dérivables en t0 .
Définition 10.3 : dérivée à droite, à gauche
La fonction f admet une dérivée à droite (resp. dérivée à gauche) en t0 si sa restriction à [t0 , +∞[ (resp. ] − ∞, t0 ])
est dérivable en t0 .
Exemple 10.4 :
La fonction valeur absolue f = | · | est dérivable en tout point de R∗ , avec f 0 (x) = 1 si x > 0 et f 0 (x) = −1 si
x < 0. Elle est de plus dérivable à gauche et à droite en 0, avec fg0 (0) = −1 et fd0 (0) = 1.
101
10.1. DÉRIVATION DES FONCTIONS VECTORIELLES MP 2020-21
Si f est dérivable en tout point de I, on dit qu’elle est dérivable sur I. De plus, dans ce cas, l’application de I dans
df
E : t 7→ f 0 (t) est appelée fonction dérivée de f , et notée f 0 , ou D(f ), ou (cette notation est liée au contexte et
dt
présuppose que l’on désigne la variable par la lettre t).
Proposition 10.6 : dérivation sur un sous-intervalle
Soit f une application définie sur un intervalle I de R et à valeurs dans un espace vectoriel normé E : f : I → E.
1. Soit J un sous-intervalle de I.
Si f est dérivable sur I, alors f|J est dérivable sur J.
2. Réciproquement, supposons J est ouvert dans I.
Si f|J est dérivable sur J, alors f est dérivable en tout point de J.
(αf + βg)0 (a) = αf 0 (a) + βg 0 (a) resp. D(αf + βg) = αD(f ) + βD(g).
Remarque 10.10 :
On en déduit que l’ensemble des applications de I dans E dérivables sur I (resp. C 1 sur I) est un K-espace vectoriel
noté D1 (I, E) (resp. C 1 (I, E)) et que l’application f 7→ f 0 (a) est linéaire sur cet espace.
(u ◦ f )0 = u ◦ f 0 .
Exemple 10.13 :
Soit E est un espace vectoriel euclidien, de produit scalaire ( · | · ). Alors pour toutes fonctions f et g dérivables sur
un intervalle I de R à valeurs dans E, la fonction (f |g) est dérivable, et :
(f |g)0 = (f 0 |g) + (f |g 0 ).
0 (f |f 0 )
kf k2 = .
kf k2
En particulier, si kf k2 est constant sur I, alors (f |f 0 ) = 0 : le vecteur vitesse est orthoradial. Par exemple, si f est deux
fois dérivable et kf 0 k constant (mouvement uniforme), alors (f 0 |f 00 ) = 0 (l’accélération est orthogonale à la vitesse).
Remarque 10.14 :
Le théorème se généralise à une application multilinéaire : par exemple, si f1 , . . . , fn sont des fonctions dérivables
sur un intervalle I de R à valeurs dans un espace vectoriel normé E de dimension n muni d’une base B, alors la fonction
detB (f1 , . . . , fn ) est dérivable et :
10.1.5 Théorèmes généraux pour les fonctions à valeurs réelles — rappels de MPSI
Il s’agit ici de rappels. On renvoie au cours de première année pour les démonstrations, qui sont à savoir !
Proposition 10.15 : dérivée et extremum — rappel de MPSI
Soit f une fonction définie sur I et a ∈ I qui n’est pas une borne de I.
Si f présente en a un extremum local, et si f est dérivable en a, alors f 0 (a) = 0.
Remarque 10.16 :
1. Attention, la réciproque est fausse ! L’annulation de la dérivée n’implique pas la présence d’un extremum.
2. Attention à l’hypothèse ! Si on n’est pas sur un ouvert, alors l’existence d’un extrema n’implique pas l’annulation
de la dérivée.
Exemple 10.17 :
1. La fonction x 7→ x3 est de classe C 1 sur l’ouvert R de R, de dérivée nulle en 0, mais n’admet pas d’extremum en
0.
2. La fonction x 7→ x est de classe C 1 sur [1, 2] (qui n’est pas ouvert), possède des extrema en 1 et en 2, mais sa
dérivée ne s’annule ni en 1 ni en 2.
On peut également paramétrer le segment [a, b] en posant h = b − a, de sorte que [a, b] = {a + th, t ∈ [0, 1]}. Le
théorème des accroissements finis s’écrit alors
Applications du TAF :
Soit f une application continue d’un intervalle I de R dans R (sauf pour la dernière application),
◦
dérivable sur l’intérieur I de I.
• L’application f est croissante (resp. décroissante) sur I si et seulement si f 0 ≥ 0 (resp. f 0 ≤ 0) sur
◦
I.
◦
• f est strictement monotone sur I si et seulement si f 0 est de signe constant sur I et {x ∈ I, f 0 (x) 6= 0}
est dense dans I.
◦
• Si k ∈ R+ , alors f est k-lipschitzienne sur I si et seulement si |f 0 | ≤ k sur I .
• Soit f : I → E une application à valeurs dans un espace vectoriel normé E. f est constante sur I
◦
si et seulement si f 0 = 0 sur I .
La démonstration de ce résultat se ramène au cas des fonctions numériques par passage aux composantes dans
une base. Pour les fonctions à valeurs complexes, il s’obtient par considération de la partie réelle et de la partie
imaginaire.
L’ensemble des fonctions de classe C k sur I (k ∈ N ∪ {+∞}) à valeurs dans E est un espace vectoriel, noté C k (I, E).
Si de plus E = K (R ou C), C k (I, E) est même une algèbre : la dérivée k-ième d’un produit est donnée par la
formule de Leibniz :
k
X k (i) (k−i)
(f g)(k) = f g .
i=0
i
On peut en déduire l’intégrale d’une fonction continue par morceaux, sachant qu’elle est limite uniforme de fonctions
en escalier :
Théorème 10.29 : construction de l’intégrale d’une fonction continue par morceaux sur un segment
Soit f une fonction continue par morceaux sur [a, b] à valeurs dans un espace vectoriel normé E de dimension
! finie.
Z
Si (ϕn )n est une suite de fonctions en escalier convergeant uniformément vers f , alors la suite ϕn est
[a,b]
n
convergente. De plus sa limite ne dépend pas de la suite choisie.
Voici maintenant une propriété valable lorsque E est un espace réel ou complexe sans mention de dimension,
démontrée dans le cadre des espaces vectoriels normés (chapitre 3) :
Proposition 10.32 : inégalité de Cauchy-Schwarz
Soit f et g continues par morceaux sur [a, b], à valeurs un espace vectoriel normé E sur R ou C. Alors :
s s
Z b Z b Z b
2 2
kf (x)g(x)k dx ≤ kf (x)k dx × kg(x)k dx.
a a a
Le fameux « cas d’égalité » n’est valable que dans le cas de fonctions continues (pas seulement continues par mor-
ceaux).
Lorsque l’espace vectoriel E est de dimension finie on conserve quelques propriétés supplémentaires. Le cas le
plus simple est lorsqu’on peut se ramener au cas des fonctions à valeurs scalaires (vu en Première Année) par passage
aux coordonnées dans une base. Par exemple la convergence des sommes de Riemann :
Théorème 10.33 : convergence des sommes de Riemann
Soit f une fonction continue sur un segment [a, b] (a < b) à valeurs dans un espace vectoriel normé E de dimension
finie. Pour n ∈ N∗ , soit Rn la somme de Riemann de f définie par :
n
b−a X b−a
Rn = f a+k .
n n
k=1
Z b
Alors la suite (Rn )n≥1 des sommes de Riemann converge vers f (t)dt :
a
b n
b−a X b−a
Z
f (t)dt = lim f a+k .
a n→+∞ n n
k=1
Deux autres exemples du même tonneau seront vus plus loin : intégration des développements limités (vectoriels),
formule de Taylor-Young (vectorielle).
La majoration de la norme d’une intégrale nécessite une nouvelle démonstration :
Théorème 10.34 : inégalité de la moyenne
Soit f une fonction continue par morceaux sur [a, b] à valeurs dans un espace vectoriel normé E de dimension finie.
Alors :
Z
Z
f
≤ kf k ≤ (b − a)kf k∞ .
[a,b]
[a,b]
Remarque 10.36 :
ATTENTION A BIEN PRÉCISER LA CONTINUITÉ DE f .
Proposition 10.37 : TFCI2
Soit u et v deux applications de classe C 1 d’un intervalle J dans R et f une application continue d’un intervalle I
dans E. On suppose que u(J) ⊂ I et v(J) ⊂ I.
Z v(x)
Alors la fonction G : J → E, x 7→ f (t)dt est de classe C 1 et :
u(x)
Remarque 10.38 :
Extension aux fonctions continues par morceaux.
Soit f une application continue par morceaux d’un intervalle I dans E et a ∈ I. Alors, l’application
Fa : I → E
Z x
x 7→ f (t)dt
a
est continue sur I. En tout point x0 de I qui n’en est pas un plus petit élément, resp. un plus grand élément, Fa admet
une dérivée à gauche, resp. à droite, qui vaut :
(Fa )0g (x0 ) = lim f (x) resp. (Fa )0d (x0 ) = lim f (x) .
x→x−
0 x→x+
0
Remarque 10.40 :
extension aux fonctions continues par morceaux
Dans le cas où f est simplement continue par morceaux, il est conseillé de se ramener au cas précédent en considérant
une subdivision de ϕ([α, β]).
Du TFCI, on peut déduire une démonstration très économique de l’inégalité des accroissements finis, pour les fonctions
de classe C 1 :
Corollaire 10.41 : inégalité des accroissements finis pour les fonctions de classe C 1
Soit f une fonction définie sur un intervalle I à valeurs dans un espace vectoriel normé E de dimension finie. Pour
tout (a, b) ∈ I 2 , supposons que :
• f est continue sur [a, b] ;
• f est de classe C 1 sur ]a, b[ ;
• ∃k ∈ R, ∀t ∈]a, b[, kf 0 (t)k ≤ k.
Alors : kf (b) − f (a)k ≤ k|b − a|.
Alors :
kf (x) − f (a)k = o (|g(x) − g(a)|)
au voisinage de a.
C’est encore vrai lorsque u et v sont seulement continues sur I et de classe C 1 par morceaux sur I.
Remarque 10.46 :
Lors d’une intégration par parties, on précisera toujours la classe des fonctions qui interviennent sur l’intervalle de
travail contenant les bornes d’intégration.
Théorème 10.47 : formule de Taylor avec reste intégral
Soit f ∈ C n (I, E), de classe C n+1 par morceaux sur I. Soit a ∈ I.
Alors pour tout point x ∈ I, on a :
n x
(x − a)k (x − t)n (n+1)
X Z
(k)
f (x) = Tn (x) + Rn (x) avec Tn (x) = f (a) et Rn (x) = f (t)dt.
k! a n!
k=0
Remarque 10.49 :
1. La formule de Taylor avec reste intégral, l’inégalité des accroissements finis, l’inégalité de Taylor-Lagrange, sont
des formules globales, permettant des majorations explicites et quantitatives (par exemple majorations d’erreurs).
2. Au contraire, la formule de Taylor-Young est locale et qualitative.
Remarque 10.53 :
La réciproque est fausse : la convergence en moyenne n’implique pas la convergence uniforme, ni même la conver-
gence simple !
Exemple 10.54 :
La suite de fonctions (fn )n définie sur [0, 1] par : fn (x) = xn converge en moyenne vers la fonction nulle (car
1
kfn − 0k1 = n+1 ) mais cette convergence n’est pas uniforme (car kfn − 0k∞ = 1), ni même simple pour x = 1 (car
fn (1) − 0 = 1).
Remarque 10.56 :
1. Il est important de noter que ce résultat ne subsiste pas si la convergence n’est pas uniforme. Soit par exemple
la fonction fn définie sur [0, 1] pour n ∈ N∗ par :
1
2n2 x si x ∈ 0, ,
2n
1 1
fn (x) = 2n − 2n2 x si x ∈ , ,
2n n
1
0 si x ∈ ,1 .
n
La suite (fn )n converge simplement vers Zla fonction nulle, mais la convergence n’est pas uniforme car kfn −0k∞ =
1
n. On remarque que pour tout n ∈ N∗ , fn = 6= 0.
[0,1] 2
2. La convergence uniforme n’est ici suffisante que parce que [a, b] est un segment (compact suffit). Ce résultat ne
s’appliquera pas aux intégrales sur un intervalle quelconque que nous verrons au chapitre « intégration sur un
intervalle quelconque ».
Remarque 10.58 :
P
Ceci signifie que pour intégrer la somme de la série fn , il suffit d’intégrer terme à terme et de sommer.
Exemple 10.59 :
Z 1
Calculer xx dx sous forme de la somme d’une série.
0
Remarque 10.60 :
P
Soit fn une série de fonctions de C([a, b], E) qui converge normalement sur [a, b]. Alors :
Z +∞
Z
+∞
Z +∞
X
X
X
fn
≤ fn
≤ kfn k,
[a,b]
[a,b]
[a,b]
n=0 n=0 n=0
P
et comme la série kfn k converge uniformément sur [a, b], on peut échanger l’intégrale et la somme :
Z
+∞
X
+∞ Z
X
fn
≤ kfn k.
[a,b]
[a,b]
n=0 n=0
Exemple 10.61 :
+∞
2π X
teint
Z
Majorer l’intégrale : I = dt.
0 n=1
n2
Il existe un autre moyen de démontrer que limite/somme et intégrale sont échangeables, en appliquant ce que l’on
appelle le théorème de convergence dominée. Ce théorème existe tant pour les suites de fonctions que pour les séries.
Ceci dit, son intérêt se révèle réellement lorsqu’on cherche à intégrer sur un intervalle quelconque c’est-à-dire pas
nécessairement un segment. Nous reviendrons donc sur les deux énoncés de convergence dominée dans le chapitre 14
« Intégration sur un intervalle quelconque ».
Nous donnons ici une version allégée de ces théorèmes, dans le cadre de l’intégration sur un segment.
Théorème 10.62 : théorème de convergence dominée pour une suite de fonctions, version « segment »
Soit (fn )n une suite de fonctions à valeurs réelles ou complexes définies sur un segment [a, b]. On suppose que :
• pour tout n ∈ N, la fonction fn est continue par morceaux sur [a, b] (et donc intégrable !) ;
• la suite (fn )n converge simplement sur [a, b] vers une fonction f continue par morceaux (et donc intégrable !) ;
• il existe une fonction ϕ continue par morceaux positive sur [a, b] (et donc intégrable !) telle que pour tout n ∈ N :
|fn | ≤ ϕ (hypothèse de domination).
Z b Z b
Alors f (t)dt = lim fn (t)dt, ou encore
a n a
Z b Z b
lim fn (t)dt = lim fn (t)dt.
a n→+∞ n→+∞ a
Z +∞
bX +∞ Z
X b
un (t)dt = un (t)dt.
a n=0 n=0 a
Exemple 10.68 :
+∞
X 1
On sait que : ∀x ∈] − 1, 1[, xn = . Cette série converge normalement, donc uniformément, sur tout
n=0
1−x
segment (compact suffit) de ] − 1, 1[. On en déduit en calculant les primitives s’annulant en 0 :
+∞ n
X x
= − ln(1 − x).
n=1
n
Remarque 10.71 :
P
Ceci signifie que pour dériver la somme de la série fn , il suffit de dériver terme à terme et de sommer, à
condition que la série des dérivées converge uniformément.
Exemple 10.72 :
+∞
X x2n+1
1. Soit f la fonction définie sur ] − 1, 1[ par : f (x) = (−1)n . Cette série est normalement convergente sur
n=0
2n + 1
tout segment de ] − 1, 1[, donc simplement convergente sur ] − 1, 1[. La série dérivée terme à terme : (−1)n x2n
P
est aussi normalement, donc uniformément, convergente sur tout segment inclus dans ] − 1, 1[. On en déduit que
f est de classe C 1 et que :
+∞
X 1
f 0 (x) = (−x2 )n = .
n=0
1 + x2
c’est-à-dire : e0a = a ea = ea a.
P (p)
3. Pour tout p ∈ [[1, k]], la série fn converge uniformément sur tout segment de I.
+∞ +∞
!(k) +∞
X X X
Alors fn est de classe C k sur I et : fn = fn(k) .
n=0 n=0 n=0
Exemple 10.75 :
+∞
1 X
En dérivant k fois l’égalité : = xn sur ] − 1, 1[, on obtient (en posant n − k = p) :
1−x n=0
+∞ +∞
1 X
n−k
X p+k p
n(n − 1) · · · (n − k + 1)x = x .
(1 − x)k+1 k
n=k p=k
10.4.1 Définitions
Définition 10.76 : courbe paramétrée
Soit f : I → E une fonction vectorielle de classe C k , c’est-à-dire k fois dérivable et dont toutes les dérivées sont
continues.
On appelle courbe paramétrée la donnée du couple (I, f ).
L’ensemble f (I) = {f (t) ; t ∈ I} est appelé support de la courbe ou trajectoire.
Remarque 10.77 :
En interprétant le paramètre t comme le temps, on peut donc voir une courbe paramétrée comme la description
d’un mouvement. Il ne s’agit pas d’une courbe au sens géométrique (ceci n’étant que le support).
En fait le point M (t), t ∈ I, du plan se déplace sur le support de la courbe. À l’instant t, la vitesse instantanée est
donnée par →−v (t) = f 0 (t) et l’accélération instantanée par →
−
a (t) = f 00 (t).
Remarque 10.80 :
Le vecteur →
−
u (t) est un vecteur directeur de la sécante à la courbe en M (t) et M (t0 ).
Théorème 10.81 : tangente en un point régulier
→
−
Soit M (t0 ) un point régulier d’une courbe paramétrée (I, f ) de classe C 1 , c’est-à-dire f 0 (t0 ) 6= 0 .
Alors la courbe possède une tangente au point M (t0 ) dirigée par le vecteur f 0 (t0 ).
Remarque 10.82 :
est de classe C ∞ mais ne possède pas de tangente en l’origine M (0). En effet si t > 0 les vecteurs directeurs de
la tangente sont de la forme →
−
u + (t) = (at , 0) et si t < 0 ils sont de la forme →
−
u − (t) = (0, bt ) ; et ces deux vecteurs
ne peuvent pas tendre vers un même vecteur non-nul.
→
−
2. Il se peut que f 0 (t0 ) = 0 mais que malgré tout la courbe admette une tangente en M (t0 ). Par exemple considérer
f (t) = (t2 , t2 ).
On peut malgré tout effectuer l’étude locale complète en un tel point, à l’aide des développements limités, mais
ceci est hors-programme. Un tel point est dit stationnaire.
Voyons déjà pour l’existence d’une tangente en un point stationnaire, quand l’arc est de classe C k :
Proposition 10.83 : tangente à un arc paramétré de classe C k
Soit (I, f ) un arc paramétré de classe C k avec k ≥ 1. Soit t0 ∈ I. On suppose que :
Alors l’arc paramétré (I, f ) admet au point de paramètre t0 une tangente dirigée par f (k) (t0 ).
Remarque 10.84 :
détermination de la tangente à un arc — utile dans la pratique !
En M (t0 ), une fois un vecteur tangent f 0 (t0 ) calculé, on obtient facilement une équation de la tangente T (t0 ).
−−−−−→
En effet, un point M appartient à T (t0 ) si et seulement si les vecteurs M M (t0 ) et f 0 (t0 ) sont colinéaires, c’est-à-dire
−−−−−→
det(M M (t0 ), f 0 (t0 )) = 0.
0 0 0
Par exemple dans le plan, pour M (t0 ) de coordonnées (x0 , y0 ) et f (t0 ) de coordonnées (x0 , y0 ), on obtient
x − x x0
0 0
= 0, ou encore (x − x0 )y00 − (y − y0 )x00 = 0.
y − y0 y00
Remarque 10.87 :
L’étude générale des points stationnaires et des branches infinies (en particulier des droites asymptotes), est offi-
ciellement hors-programme.
t 0 1
x0 (t) 1 + 0
y 0 (t) 0 + 0
+∞
x
0
+∞
y
5. Un petit dessin :
Séries entières
• Si R = 0, quel que soit z non nul, la suite (an z n )n n’est pas bornée : la série an z n est grossièrement divergente.
P
119
11.1. DÉFINITION ET CONVERGENCE MP 2020-21
X
La série nn z n est grossièrement divergente pour tout z ∈ C∗ .
• Si R = +∞ : la suite (an rn )n est bornée pour tout r ∈ R+ . Pour tout complexe z, il existe r ∈ R+ tel que
an z n est absolument convergente pour tout z ∈ C.
P
|z| < r : la série
Exemple 11.6 :
X zn n
r
La série est absolument convergente pour tout z ∈ C, car pour tout r > 0 la suite converge vers
n! n! n
0 donc est bornée.
• Si 0 < R < +∞ :
B Pour tout z ∈ C tel que |z| < R, il existe un réel r strictement compris entre |z| et R tel que la suite (an rn )n
an z n est absolument convergente.
P
soit bornée : la série
B Pour tout z ∈ C tel que |z| > R, la suite (an z n )n n’est pas bornée : la série an z n est grossièrement
P
divergente.
an z n : elle peut être convergente (absolument ou
P
B Pour |z| = R, on ne peut rien dire a priori de la série
non), ou divergente (grossièrement ou non).
Définition 11.7 : disque ouvert de convergence d’une série entière
Le disque ouvert de centre O de rayon R est appelé disque de convergence ; l’intervalle ] − R, R[ est appelé
intervalle de convergence.
Remarque 11.8 :
an z n une série entière et R son rayon de convergence.
P
Soit
an z n converge pour z = z0 , alors R ≥ |z0 |.
P
1. Si la série
an z n diverge pour z = z1 alors R ≤ |z1 |.
P
2. Si la série
an z n converge non absolument pour z = z2 , alors R = |z2 |.
P
3. Si la série
4. Si la suite (an z n )n est bornée pour z = z0 , alors R ≥ |z0 |.
5. Si la suite (an z n )n ne converge pas vers 0 pour z = z1 , alors R ≤ |z1 |.
6. Si la suite (an z n )n est bornée mais ne converge pas vers 0 pour z = z2 , alors R = |z2 |.
Exemple 11.9 :
X zn
1. La série est semi-convergente pour z = −1 : son rayon de convergence est R = 1. Elle diverge pour z = 1.
n
X zn
2. La série converge absolument pour z = 1 : son rayon de convergence R est supérieur ou égal à 1 ; la suite
n n2
z
ne converge pas vers 0 dès que |z| > 1 : R ≤ 1. En définitive, R = 1. Comme elle converge absolument
n2 n
au point R, elle converge absolument sur tout le cercle de convergence.
zn zn n
≤ |z| : cette suite est bornée pour z = 2, mais elle ne converge pas vers 0,
X
3. :
(3 + (−1)n )n (3 + (−1)n )n 2n
donc R = 2. Comme la série diverge grossièrement pour z = 2, elle diverge grossièrement sur tout le cercle de
convergence.
an rn , converge}
P
R = sup { r ∈ R+ /
an rn , converge absolument}.
P
R = sup { r ∈ R+ /
Exemple 11.11 :
X n! n! an+1
1. n
z n . an = n 6= 0, et lim = e−1 , d’où R = e.
n n n→+∞ an
X n!
2. z 2n . Ici, la règle de d’Alembert ne peut pas s’appliquer directement, car les coefficients de rang impair
nn
sont nuls. Cependant, d’après l’exemple précédent, la série converge pour |z 2 | < e et diverge pour |z 2 | > e. Son
√
rayon de convergence est donc R = e.
Remarque 11.12 :
Dans le cas où certains coefficients de la série entière s’annulent, on parle de série lacunaire. Il est conseillé de
revenir à la règle de d’Alembert des séries numériques (en incluant la puissance de z dans le calcul) et de refaire la
démarche de la démonstration.
Exemple 11.13 : X 2
Déterminer le rayon de convergence R de la série entière n!z n .
Remarque 11.14 :
Attention, la réciproque du théorème est fausse.
an+1 1
Ce n’est pas parce qu’une série a pour rayon de convergence R que la suite converge et a pour limite .
an n R
En fait on n’est même pas assurés que cette suite converge. . .
Exemple 11.15 : nπ
z n a pour rayon de convergence 1, mais le quotient de deux termes consécutifs n’est
P
La série entière cos
3
1
pas de limite = 1.
1
Si z est un nombre complexe tel que |z| < min (R, R0 ), les deux séries an z n et bn z n convergent, donc (an +bn )z n
P P P
Si R = R0 , il se peut que R00 > min (R, R0 ) : par exemple, z n et ( 71n −1)z n ont toutes deux un rayon de convergence
P P
Conclusion :
Si R 6= R0 , R00 = min (R, R0 ).
Si R = R0 , R00 ≥ min (R, R0 ).
Mais on ne peut rien dire de plus précis, sauf au cas par cas.
C’est encore une série entière. Il est à noter que ce produit prolonge celui de deux polynômes.
Pour |z| < min (R, R0 ), les deux séries an z n et bn z n convergent absolument, par conséquent leur produit de
P P
On en déduit que le rayon de convergence du produit de Cauchy est supérieur ou égal à min (R, R0 ), mais l’égalité (1)
n’a de sens que dans le disque ouvert de rayon min (R, R0 ).
Attention : ici, même si R 6= R0 , on n’a pas nécessairement R00 = min (R, R0 ). Par exemple :
X X
zn : R = 1; 1−z : R0 = +∞; ( z n )(1 − z) = 1 : R00 = +∞.
Mais l’égalité (1) n’a de sens ici que pour |z| < 1.
P zn P z 0n
En effectuant le produit de Cauchy de et , on obtient :
n! n!
∀(z, z 0 ) ∈ C2 exp(z) exp(z 0 ) = exp(z + z 0 ).
De même :
+∞ +∞
X z 2n 1 X z 2n+1
cos z = ch iz = (−1)n sin z = sh iz = (−1)n .
n=0
(2n)! i n=0
(2n + 1)!
Remarque 11.17 :
Attention : ce résultat n’implique pas la convergence normale de la série entière sur tout son disque de convergence.
Exemple 11.18 :
n
1 X 1
xk −
P n
La série x ne converge pas normalement vers sur ] − 1, 1[, car la différence Rn (x) = =
1−x 1−x
k=0
1 − xn+1 − 1 −xn+1
= n’est pas bornée pour x ∈] − 1, 1[.
1−x 1−x
La somme de la série entière est donc de classe C ∞ sur ] − R, R[. La série entière est la série de Taylor de sa somme S :
S (n) (0)
∀n ∈ N, an = .
n!
Remarque 11.20 :
Pour montrer qu’une fonction est de classe C ∞ sur un intervalle ] − R, R[, il suffit de montrer que c’est la somme
d’une série entière de rayon de convergence supérieur ou égal à R.
Exemple 11.21 :
+∞
ln(1 − x) X −xn
La fonction f : x 7→ est la somme de la série entière , dont le rayon de convergence est 1. Elle
x n=0
n+1
peut donc être prolongée en 0 en une fonction de classe C ∞ sur ] − 1, 1[.
Remarque 11.22 :
+∞
X +∞
X
Si deux fonctions f : x 7→ an xn et g : x 7→ bn xn coïncident sur un voisinage de 0, alors pour tout n :
n=0 n=0
an = bn .
En effet on a f = g au voisinage de 0, donc f (n) = g (n) au voisinage de 0, d’où f (n) (0) = g (n) (0) pour tout n, puis
an = bn pour tout n.
Exemple 11.24 :
+∞ +∞ n
X 1 X x
De xn = pour x ∈] − 1, 1[ , on déduit = − ln(1 − x) pour x ∈] − 1, 1[ .
n=0
1 − x n=1
n
Nous avons vu que f est alors de classe C ∞ sur ] − r, r[ et que la série entière est sa série de Taylor :
+∞ (n)
X f (0) n
∀x ∈] − r, r[, f (x) = x .
n=0
n!
Remarque 11.26 :
Réciproquement, toute fonction de classe C ∞ sur ] − r, r[ n’est pas nécessairement développable en série entière. Sa
série de Taylor peut avoir un rayon de convergence nul, ou converger dans ] − r, r[ vers une fonction différente de f .
1
Par exemple, la fonction f : x 7→ e− x2 , prolongée en 0 par f (0) = 0, est de classe C ∞ sur R, mais sa série de Taylor
est la série nulle, de rayon de convergence infini : f n’est pas développable en série entière.
Pour prouver qu’une fonction de classe C ∞ est développable en série entière, il faut prouver que le reste de Taylor
converge vers 0, par exemple à l’aide de l’inégalité de Taylor-Lagrange.
Voyons une autre méthode pour obtenir le développement en série entière d’une fonction de classe C ∞ : à l’aide
d’une équation différentielle.
Exemple 11.27 :
Soit f la fonction définie sur R par : f (x) = earctan x . Démontrer que f est développable en série entière au voisinage
de 0.
Remarque 11.28 :
Si |an | ≤ |bn | pour tout n alors R ( an z n ) ≥ R ( bn z n ).
P P
En effet soit z tel que |z| < R = R ( bn z n ). Alors bn z n converge. Or |an z n | ≤ |bn z n | donc an z n converge,
P P P
n n
P P
d’où R ( an z ) ≥ R ( bn z ).
On en déduit :
+∞ +∞
X x2n X x2n+1
∀x ∈ R ch x = sh x =
n=0
(2n)! n=0
(2n + 1)!
+∞ +∞
X x2n X x2n+1
∀x ∈ R cos x = (−1)n sin x = (−1)n
n=0
(2n)! n=0
(2n + 1)!
+∞
1 X
De plus = (−1)n x2n pour x ∈] − 1, 1[ donne par intégration
1 + x2 n=0
+∞
X (−1)n 2n+1
arctan(x) = x pour x ∈] − 1, 1[.
n=0
2n + 1
+∞
X α(α − 1) · · · (α − n + 1) n
∀x ∈] − 1, 1[, (1 + x)α = x .
n=0
n!
Exemple 11.30 :
+∞
1 √ x x2 X (2n − 2)!
Pour α = : ∀x ∈] − 1, 1[, 1+x = 1+ − + ··· = 1 + (−1)n−1 2n−1 xn .
2 2 8 n=1
2 n!(n − 1)!
EPCC : exercices 2, 19, 20, 21, 22, 23, 24, 47, 51.
L’objet de ce chapitre est d’étendre la notion d’intégrale au cas des fonctions continues par morceaux sur un
intervalle I qui n’est pas un segment i.e. du type :
possède une limite en b. S’il en est ainsi, cette limite est notée :
Z b
f (t)dt.
a
Z b
Dans le cas contraire on dit que l’intégrale impropre f (t)dt diverge.
a
Proposition 12.2 : cohérence de la notation pour b < +∞
Soit f une fonction continue par morceaux sur [a, b[ à valeurs complexes avec b < +∞. Si f possède une limite à
Z b
˜
gauche en b elle se prolonge en une fonction f continue par morceaux sur le segment [a, b]. L’intégrale f (t)dt est
a
alors convergente et
Z b Z b
f (t)dt = f˜(t)dt.
a a
127
12.1. INTÉGRALES IMPROPRES MP 2020-21
Remarque 12.3 :
Dans cette situation on dit souvent que l’intégrale est faussement impropre ou faussement généralisée en b.
Exemple 12.4Z :
1
sin t
L’intégrale dt est faussement impropre en 0.
0 t
Proposition 12.5 : localisation, reste
Z b
Soit f une fonction continue par morceaux sur [a, b[ à valeurs complexes et c ∈]a, b[. L’intégrale impropre f (t)dt
Z b a
On définit alors l’intégrale de f sur I comme la borne supérieure des intégrales de f sur les segments inclus dans I :
Z Z
f = sup f.
I [a,b]⊂I [a,b]
Exemple 12.13 :
1. Une fonction f positive et continue par morceaux sur [a, b] est intégrable sur [a, b] ; elle est aussi intégrable sur
]a, b[, ]a, b], [a, b[, et les quatre intégrales sont égales.
1
2. La fonction x 7→ √ est intégrable sur ]0, 1], car :
x
Z b
dx √ √
∀(a, b) ∈]0, 1]2 avec a < b : √ = 2( b − a) ≤ 2
a x
Z
1
et √ = 2, car on peut prendre b = 1 et a aussi près que l’on veut de 0.
]0,1] x
Exemple 12.15 :
x2
La fonction x 7→ e− x+1 est intégrable sur [0, +∞[, car elle est majorée par e1−x , donc dominée par e−x qui est
intégrable sur [0, +∞[.
Théorème 12.16 : une condition d’intégrabilité en termes de limites
2
Z (a, b) ∈ R , et soit c ∈]a, b[.
Soit f une fonction positive continue par morceaux sur un intervalle ]a, b[ avec
x
La fonction f est intégrable sur ]a, b[ si et seulement si la fonction F : x 7→ f (t) dt admet des limites finies en
c
a et en b. On a alors : Z
f = lim F (x) − lim F (x).
]a,b[ x→b x→a
Exemple 12.17 :
1
1. Montrer que la fonction x 7→ ln est intégrable sur ]0, 1[ et calculer son intégrale.
x − x2
1
2. Montrer que la fonction t 7→ est intégrable sur ] − ∞, +∞[ et calculer son intégrale.
1 + t2
Remarque 12.18 : Z x
Attention : il ne suffit pas que l’intégrale f (t) dt admette une limite finie quand x tend vers +∞ pour que f
−x
soit intégrable sur ] − ∞, +∞[. Il faut queZ les deux limites soient finies indépendamment l’une de l’autre.
x
t
Exemple : f (t) = . Alors lim f (t) dt = 0 et pourtant f n’est pas intégrable sur ] − ∞, +∞[.
1 + t2 x→+∞ −x
En utilisant le théorème 12.19, on peut comparer une fonction avec fα , au voisinage de la borne considérée :
? si f est une fonction positive continue par morceaux sur [a, +∞[,
B s’il existe α > 1 tel que f (x) = O( x1α ) au voisinage de +∞, f est intégrable sur [a, +∞[ ;
1
B s’il existe α ≤ 1 tel que xα = O(f (x)) au voisinage de +∞, f n’est pas intégrable sur [a, +∞[ ;
? si f est une fonction positive continue par morceaux sur ]0, a],
B s’il existe α < 1 tel que f (x) = O( x1α ) au voisinage de 0, f est intégrable sur ]0, a] ;
1
B s’il existe α ≥ 1 tel que xα = O(f (x)) au voisinage de 0, f n’est pas intégrable sur ]0, a].
Exemple 12.20 :
1 1
1. La fonction x 7→ 4
est intégrable sur [0, +∞[ car elle est équivalente en +∞ à 4 .
1+x x
1 2 1 1 1
2. La fonction x 7→ √ sin est intégrable sur ]0, π ], car elle est dominée au voisinage de 0 par 1 .
x x x2
sin x 1
3. La fonction x 7→ 2 n’est pas intégrable sur ]0, π], car elle est équivalente en 0 à .
x x
Z Z Z I I I
Z β Z b
f (t) dt = f ◦ ϕ (u) · ϕ0 (u) du.
α a
Exemple 12.24 :
Z +∞ −x
e
Calculer I = dx sous forme d’une intégrale sur un segment.
1 x
N1 : CI 1 (I) → R Z
f 7→ N1 (f ) = |f |
I
La norme hermitienne associée à ce produit scalaire est appelée norme de la convergence en moyenne quadratique :
Z 12
2
∀f ∈ CI 2 (I), kf k2 = |f | .
I
Z
Une suite de fonctions (fn )n converge en moyenne quadratique vers une fonction f lorsque |fn − f |2 converge
I
vers 0.
Il nous faut donc un résultat plus puissant. Le théorème suivant est dû à Henri Lebesgue (1875-1941) :
Théorème 12.30 : théorème de convergence dominée (TCD)
Soit (fn )n une suite de fonctions à valeurs réelles ou complexes définies sur un intervalle I. On suppose que :
• Pour tout n ∈ N, la fonction fn est continue par morceaux sur I.
• La suite (fn )n converge simplement sur I vers une fonction continue par morceaux.
• Il existe une fonction ϕ continue par morceaux positive et intégrable sur I telle que pour tout n ∈ N : |fn | ≤ ϕ
(hypothèse de domination).
Z Z
Alors les fonctions fn et leur limite f sont intégrables sur I et : f = lim fn .
I n I
Conformément au programme, nous admettrons ce résultat sans démonstration.
Exemple 12.31 :
archi-classique !
Z +∞ −n Z +∞
x2 2
∗
Pour tout n ∈ N , posons In = 1+ dx. Convergence de la suite (In )n ? En déduire e−x dx.
0 n 0
Remarque 12.32 :
Si l’intervalle I est borné (par exemple si c’est un segment), une fonction dominante ϕ constante peut convenir.
Exemple 12.33Z:
π
sin nt sin nt
Posons In = dt. Pour tout n ∈ N, la fonction fn : t 7→ est continue par morceaux sur ]0, π] et la
0 nt nt
sin nt
suite (fn )n converge simplement vers la fonction nulle. Or ∀(n, t) ∈ N×]0, π], ≤ 1, et la fonction t 7→ 1 est
nt
positive, continue par morceaux et intégrable sur ]0, π]. On peut conclure, d’après le théorème de convergence dominée,
que lim In = 0.
n→+∞
Exemple 12.35 :
Considérons la fonction f définie sur R∗+ × R+ par :
( 1
1
si t ≤ f (x, t) = (1 − xt) x
∀(x, t) ∈ R∗+ × R+ x
1
si t > x f (x, t) = 0
Remarque 12.39 :
Z +∞
1. L’hypothèse de domination est essentielle : la fonction définie sur R+ par F (x) = xe−tx dt n’est pas continue
0
+∞
en 0, étant donné que F (0) = 0 alors que pour tout x > 0 : F (x) = [−e−tx ]t=0 = 1. En fait on ne peut pas
dominer t 7→ xe−tx par une fonction intégrable indépendante de x.
2. Il suffit que l’hypothèse de domination soit vérifiée sur toute boule fermée (segment dans le cas de R) de A : pour
toute boule fermée B incluse dans A, il existe une fonction ϕB continue par morceaux, positive et intégrable sur
I telle que pour tout (x, t) ∈ B × I, |f (x, t)| ≤ ϕB (t).
Exemple 12.40 :
Étudier la continuité sur R∗+ de la fonction F définie par :
Z +∞
1
∀x ∈ R∗+ , F (x) = dt.
0 x2 + E(t)2
Exemple 12.42 :
1
ln(1 + |x − t|)
Z
L’application x 7→ dt est continue sur R.
0 1 + t2
Remarque 12.43 :
Dans ce corollaire, la continuité par rapport à chacune des variables ne suffit pas.
Considérons par exemple la fonction f définie sur [0, 1]2 par :
xt
∀(x, t) ∈ [0, 1]2 f (x, t) = .
(x2 + t2 )2
Pour tout t ∈ [0, 1], la fonction x 7→ f (x, t) est continue sur [0, 1]. Pour tout x ∈ [0, 1], la fonction t 7→ f (x, t) est
continue sur [0, 1]. Cependant
Z 1
xt 1
∀x ∈]0, 1], F (x) = dt = et F (0) = 0,
0 (x2 + t2 )2 2x(x2 + 1)
donc F n’est pas continue en 0 ! Cela provient du fait que la fonction f n’est pas continue en (0, 0). En effet lim f (u, u) =
u→0
+∞).
∂f
B Pour tout t ∈ I, la fonction (·, t) est continue sur A.
∂x
fonction ϕ continue par morceaux, positive et intégrable sur I telle que pour tout (x, t) ∈ A×I,
B Il existe une
∂f
(x, t) ≤ ϕ(t) (hypothèse de domination).
∂x
Z
∂f
Alors (x, ·) est intégrable sur I et la fonction F définie sur A par : F (x) = f (x, t) dt est de classe C 1 sur A et :
∂x I
Z
∂f
∀x ∈ A, F 0 (x) = (x, t) dt (formule de Leibniz).
I ∂x
Remarque 12.45 :
Ici encore, il suffit que l’hypothèse de domination soit vérifiée sur tout segment de A : pour tout segment B inclus
dans
A, il existe une fonction ϕB continue par morceaux, positive et intégrable sur I telle que pour tout (x, t) ∈ B × I,
∂f
(x, t) ≤ ϕB (t).
∂x
Remarque 12.46 :
R
Comme corollaire du théorème de dérivation sous le signe et de la remarque précédente, on peut aussi énoncer
R
un théorème de dérivation p fois sous le signe . Les hypothèses sont alors :
∂if
• Intégrabilité de (x, · ) pour tout x ∈ J, pour tout i ∈ [[0, p − 1]].
∂xi
∂if
• Domination de (x, · ) (indépendamment de x) sur tout segment de J, pour tout i ∈ [[0, p − 1]].
∂xi
∂f
On a aussi le cas particulier où I est fermé borné et continue sur A × I :
R ∂x
Corollaire 12.47 : dérivation sous le signe , version segment
Soit f une fonction à valeurs réelles ou complexes définie par A × [a, b], où A est un intervalle de R et [a, b] un
segment. On suppose que :
• pour tout x ∈ A, la fonction f (x, ·) est continue par morceaux sur [a, b] ;
∂f
• f admet sur A × [a, b] une dérivée partielle continue sur A × [a, b].
∂x
Z b
Alors la fonction F définie sur A par : F (x) = f (x, t) dt est de classe C 1 sur A et :
a
Z b
0 ∂f
∀x ∈ A F (x) = (x, t) dt.
a ∂x
Exemple 12.48 : Z 1
sin(xt)
Montrer que la fonction F définie par : F (x) = dt est de classe C 1 sur R et calculer sa dérivée.
0 t
Montrons que Γ est de classe C ∞ sur ]0, +∞[ et que Γ est convexe sur R∗+ .
La fonction Γ est donc un prolongement à R∗+ de la factorielle qui n’est définie que sur les entiers.
Exemple 12.51 :
Déterminer les variations de la fonction Gamma sur R∗+ . On précisera les limites aux bornes, un équivalent de Γ
en 0 et la limite de Γ0 en 0.
EPCC : exercices 25, 26, 27, 28, 29, 30, 49, 50.
139
13.2. ESPACE PRÉHILBERTIEN RÉEL — RAPPELS DE MPSI MP 2020-21
Réciproquement, toute matrice symétrique Q définit une forme bilinéaire symétrique unique.
Proposition 13.5 : correspondance entre formes bilinéaires symétriques et matrices symétriques
L’application de BS(E) dans Sn (R) qui à la forme bilinéaire symétrique ϕ associe sa matrice dans la base b est un
isomorphisme. On en déduit que :
n(n + 1)
dim BS(E) = dim Sn (R) = .
2
Q0 = t P QP .
Si ϕ est définie positive, alors l’égalité est réalisée si et seulement si x et y sont colinéaires.
Z
4. Dans l’ensemble CL2 (I, R) des fonctions continues et de carré intégrable sur un intervalle I : (f |g) = f g.
I
+∞
X
5. Dans l’ensemble `2 (N, R) des suites (un )n telles que la série u2n converge :
P
(u|v) = un vn .
n=0
Remarque 13.16 :
1. On rappelle qu’à une norme N sur E on peut associer une distance d : E × E → R+ définie par : ∀(x, y) ∈ E 2 ,
d(x, y) = N (x − y).
En particulier, la distance associée à une norme euclidienne est appelée une distance euclidienne.
2. On rappelle enfin qu’il existe des distances non euclidiennes, c’est-à-dire associées à aucune norme (par exemple
la distance discrète).
Remarque 13.18 :
L’interprétation géométrique de l’identité du parallélogramme est : « dans un parallélogramme la somme des carrés
des longueurs des côtés est égale à la somme des carrés des longueurs des diagonales ».
Remarque 13.19 :
Il existe des normes qui ne proviennent pas d’un produit scalaire (normes non-euclidiennes). Comment les repérer ?
Exemple 13.21 :
1. N1 : (x1 , . . . , xn ) 7→ |x1 | + · · · + |xn | est une norme non euclidienne sur Rn .
En effet, N1 ne vérifie pas l’identité du parallélogramme :
N (e1 + e2 )2 + N (e1 − e2 )2 = 8,
2 N (e1 )2 + N (e2 )2
= 4 6= 8.
2. N∞ : (x1 , . . . , xn ) 7→ max (|x1 |, . . . , |xn |) est une norme non euclidienne sur Rn .
En effet, N∞ ne vérifie pas non plus l’identité du parallélogramme :
N (e1 + e2 )2 + N (e1 − e2 )2 = 2,
2 N (e1 )2 + N (e2 )2
= 4 6= 2.
3. Pour une norme N , on appelle boule unité de N l’ensemble des vecteurs x tels que N (x) ≤ 1 et sphère unité de
N l’ensemble des vecteurs de norme 1. On a représenté ci-contre les sphères unités pour les trois normes N1 , N2 ,
N∞ de R2 . Saurez-vous identifier quelle « sphère » correspond à quelle norme ?
Exemple 13.24 :
Z 2π
0
1. Dans l’espace préhilbertien réel C ([0, 2π], R) muni de (f |g) = f (t)g(t)dt, on a :
0
Z 2π 2π
1
(cos | sin) = cos t sin tdt = sin2 t = 0
0 2 0
Remarque 13.26 :
Dans le cas complexe, la condition nécessaire reste valable : si x et y sont orthogonaux, alors kx+yk2 = kxk2 +kyk2 .
En effet, l’identité kx + yk2 = kxk2 + kyk2 + 2<(x|y) permet de conclure.
Remarque 13.29 :
Si E est de dimension finie et x ∈ E \{0}, alors, x⊥ étant le noyau d’une forme linéaire non nulle, c’est un hyperplan
de E. En particulier, l’orthogonal d’un vecteur non nul dans l’espace est un plan.
Définition 13.30 : orthogonal d’une partie
Soit A ⊂ E (A est une partie quelconque de E, pas nécessairement un sev) ; on appelle orthogonal de A l’ensemble
des vecteurs de E orthogonaux à tout vecteur de A : A⊥ = {y ∈ E; ∀a ∈ A, (a|y) = 0}.
Remarque 13.31 : \
On a donc A⊥ = a⊥ , or l’intersection de sev est un sev donc A⊥ est un sev de E, même si A n’est pas un sev !
a∈A
Exemple 13.32 : n
− →
→ − → − → −o − →
→ −
E = R3 et A = i + k , i + j . Un vecteur → −
w (x, y, z) appartient à A⊥ si et seulement si →
−
w · i + k = 0 et
→
− → −
→
−
w · i + j = 0, ce qui s’écrit x + z = 0 et x + y = 0, ou encore (x, y, z) = (x, −x, −x). Ainsi A⊥ est la droite de
→
− → − → −
vecteur directeur (1, −1, −1) = i − j − k .
Proposition 13.33 : propriétés de l’orthogonal d’une partie
1. E ⊥ = {0} et {0}⊥ = E.
2. ∀(A, B) ∈ P(E)2 , A ⊂ B ⇒ B ⊥ ⊂ A⊥ .
3. Si G est une famille génératrice finie de F , alors G ⊥ = F ⊥ .
⊥
4. ∀A ∈ P(E), A ⊂ A⊥ .
Remarque 13.41 :
1
Tout vecteur x 6= 0 peut être normé en considérant x.
kxk
Exemple 13.42 : Z 2π
1
Dans C 0 ([0, 2π], R) muni de (f |g) = f (t)g(t)dt, on a déjà vu que sin ⊥ cos donc la famille (sin, cos) est
2π 0
1 √ √
orthogonale. De plus, on vérifie que k sin k = k cos k = √ donc ( 2 sin, 2 cos) est une famille orthonormale.
2
Proposition 13.43 : liberté d’une famille OG ne contenant pas 0E
Toute famille orthogonale ne contenant pas le vecteur nul est libre.
Remarque 13.47 :
Remarque 13.48 :
Si E est somme directe orthogonale de la famille de sous-espaces (Fi )i∈[[1,n]] , alors à chaque sous-espace Fi est
n
X
attaché un projecteur orthogonal pi , et : pi = IdE .
i=1
Exemple 13.49 :
On peut munir Mn (R) du produit scalaire de Frobénius défini par (A|B) = tr (tAB). Déterminons la projection
orthogonale sur Sn pour ce produit scalaire.
13.4.2 Expression d’une projection (sur un SEV de dim. finie) dans une BON —
rappels de MPSI
Proposition 13.50 : expression d’une projection dans une BON
Soit (E, ( · | · )) un espace vectoriel préhilbertien réel et F un sous-espace vectoriel de E de dimension finie. Soit
(e1 , . . . , ep ) une base orthonormée de F .
p
X
∀x ∈ E, pF (x) = (x|ei )ei .
i=1
Remarque 13.51 :
Dans le cas particulier où E est de dimension finie, lorsqu’on projette orthogonalement sur un hyperplan H, si ν
désigne un vecteur unitaire normal à H, alors pH (x) = x − (x|ν)ν.
En effet, (e1 , . . . , en−1 ) étant une BON de H, la famille (e1 , . . . , en−1 , ν) est une BON de E et on a donc x =
n−1
X n−1
X
(x|ek )ek + (x|ν)ν avec pH (x) = (x|ek )ek . . .
k=1 k=1
2 2
∀x ∈ E, kxk = kpF (x)k + d(x, F )2 .
Soit F un sev de (E, ( · | · )) ; soit B = (f1 , . . . , fp ) une base orthonormée de F et C = (g1 , . . . , gq ) une
base orthonormée de F ⊥ . Pour x ∈ E, on a
q
X
• d’autre part pF ⊥ (x) = (x|gi )gi , donc (formule que l’on utilisera lorsque p > n − p) :
i=1
v
u q
uX
d(x, F ) = t (x|gi )2 .
i=1
Exemple 13.57 :
Déterminer inf f (x, y), où f (x, y) = (2x + y − 1)2 + (x − 3y)2 + (y − 1)2 .
(x,y)∈R2
Nous avons vu au théorème 13.59 que tout espace vectoriel euclidien possédait au moins une base orthonormale
(en fait ∅ est une base orthonormale de {0}). Comment obtenir une telle base ? Tout d’abord à partir d’une base
orthonormale d’un sous-espace :
Théorème 13.60 : théorème de la base orthonormale incomplète
Dans un espace vectoriel euclidien, toute famille orthonormale peut être complétée en une base orthonormale.
Définition 13.61 :
On appelle dual de E l’ensemble des formes linéaires sur E : E ∗ = L(E, R).
Remarque 13.62 :
Si E est de dimension finie n alors E ∗ = L(E, K) est de dimension finie n × 1 = n.
Théorème 13.63 : théorème de représentation (un EVE et son dual sont isomorphes)
Soit E un espace vectoriel euclidien.
Alors pour toute forme linéaire f ∈ E ∗ , il existe un vecteur y unique tel que :
∀x ∈ E, f (x) = (x|y).
En d’autres termes toute forme linéaire f s’écrit sous la forme f = ( · |y) pour un vecteur y unique.
Exemple 13.64 :
1. Un hyperplan H de E est le noyau d’une forme linéaire non nulle. On peut donc le représenter à l’aide d’un seul
vecteur n, appelé vecteur normal de H :
∀x ∈ E, x∈H ⇐⇒ (x|n) = 0.
2. Si E est un espace euclidien orienté de dimension 3, alors le déterminant d’une famille de trois vecteurs est le
même dans toutes les bases orthonormales directes ; on l’appelle produit mixte, et on le note [x, y, z].
Pour tout couple (x, y) ∈ E 2 , la forme linéaire z 7→ [x, y, z] peut être représentée par un seul vecteur noté x ∧ y :
Par ailleurs on a unicité de la base (ε1 , . . . , εn ) si on exige de plus la condition : ∀i ∈ [[1, n]], (ei |εi ) ∈ R∗+ .
Remarque 13.67 :
Dans la pratique, pour alléger les calculs on peut chercher d’abord une base uniquement orthogonale puis à la fin
normaliser les vecteurs en les divisant par leur norme.
Attention ! Ceci ne signifie pas que tout élément est limite d’une suite extraite de (an )n !
Proposition 13.70 : l’orthogonal d’une famille totale est {0E }
Soit (an )n∈N une suite totale. Alors Vect(an / n ∈ N)⊥ = {0E }.
Remarque 13.71 :
1. Si E est de dimension finie, alors : toute suite totale est génératrice. En effet une suite totale vérifie Vect(an / n ∈
N) = {0E }⊥ = E.
2. La réciproque à la proposition ci-dessus est fausse : il se peut que Vect(an / n ∈ N)⊥ = {0E } et que la famille
(an )n∈N ne soit pas totale. Voir l’exemple ci-dessous.
Exemple 13.72 :
Soit E = R[X] avec le produit scalaire défini par :
n m min (m,n)
X X X
∀P = pk X k , ∀Q = qk X k , (P |Q) = pk qk .
k=0 k=0 k=0
Proposition 13.73 : caractérisation des suites totales par la convergence de la suite des projections
Soit (an )n∈N une suite d’éléments du préhilbertien réel E.
Alors : cette suite est totale si et seulement si pour tout x ∈ E, la suite des projetés orthogonaux de x sur
Vect(a0 , . . . , an ) converge vers x.
2. Il existe une et une seule suite (Pn )n∈N de polynômes unitaires, orthogonaux pour ce produit scalaire, et telle
que deg(Pn ) = n pour tout n.
Ces polynômes sont appelés polynômes orthogonaux pour ω.
où ω est une fonction poids (continue sur [a, b] et ne s’annulant qu’en un nombre fini de points).
Alors : toute suite de polynômes orthogonaux pour ( · | · ) est totale.
L’étude des polynômes orthogonaux remplit de nombreux livres, car ceux-là ont moultes applications. Nous nous
contenterons de prouver une de leurs multiples propriétés :
Proposition 13.77 : racines des polynômes orthogonaux
Soit (Pn )n∈N la suite de polynômes orthogonaux unitaires pour un produit scalaire avec poids ω.
Alors : pour tout n, le polynôme Pn admet n racines réelles distinctes dans ]a, b[.
Remarque 13.78 :
Comme écrit plus haut, la littérature sur les polynômes orthogonaux est abondante. En particulier les polynômes
orthogonaux sont une réelle mine de sujets de concours. . .
On peut même définir des polynômes orthogonaux à l’aide de produits scalaires à poids sur des intervalles qui
ne sont pas des segments, modulo quelques hypothèses supplémentaires sur la fonction poids ω pour nous assurer de
l’intégrabilité de P Qω.
En voici 25 exemples, depuis 2000 :
Exemple 13.79 :
1. Polynôme de Legendre : [a, b] = [−1, 1] et ω(t) = 1. CCINP 2018 MP maths 1, CCINP 2018 PC, X 2018 MP
maths B, PT 2011, CCP PC 2002.
1
2. Polynôme de Tchebychev de première espèce : ]a, b[=] − 1, 1[ et ω(t) = √ . E3A 2014 PSI maths A, ENS
1 − t2
BL 2008, PT 2007, CCP 2e concours 2007, INT Management 2006, BCE 2005.
√
3. Polynôme de Tchebychev de seconde espèce : [a, b] = [−1, 1] et ω(t) = 1 − t2 . Centrale 2014 PSI maths 1.
4. Polynômes de Laguerre : [a, b[= [0, +∞[ et ω(t) = e−t . CCINP 2019 PC, X 2018 L2 étr., CAPES 2011, BCE
2011, ENGEES 2001.
2
5. Polynômes de Hermite : ]a, b[=] − ∞, +∞[ et ω(t) = e−t . CCINP 2016 MP maths 2, Mines 2009 PSI maths 2,
BCE 2008, ENS 2007, CCP TPC 2006, ISUP 2006, ESSEC 2002.
6. Polynômes de Hilbert : [a, b] = [0, 1] et ω(t) = 1. Centrale MP 2011.
EPCC : exercices 39, 76, 77, 79, 80, 81, 82, 92.
Automorphismes autoadjoints,
endomorphismes symétriques
On dit que u conserve le produit scalaire, et cela implique que u conserve aussi la norme : ∀x ∈ E, ku(x)k = kxk.
Notation : On note O(E) l’ensemble des automorphismes orthogonaux de l’espace E.
Proposition 14.3 : justification de l’appellation « automorphisme orthogonal »
Si u est un automorphisme orthogonal de E, alors u est un automorphisme !
Exemple 14.4 :
1. Soit s la symétrie orthogonale par rapport à un sous-espace vectoriel F de E. Alors s est un automorphisme
orthogonal.
2. Soit p la projection orthogonale sur F , SEV strict E. Alors p n’est pas un automorphisme orthogonal.
153
14.1. AUTOMORPHISMES ORTHOGONAUX ET MATRICES ORTHOGONALES MP 2020-21
(
u ∈ L(E)
u ∈ O(E) ⇐⇒ .
∀x ∈ E, ku(x)k = kxk
Remarque 14.7 :
Attention, ce n’est pas un espace vectoriel ! Par exemple l’application nulle n’est pas dans O(E).
Proposition 14.8 : caractérisation de l’orthogonalité par l’image d’une BON
Soit (E, ( · | · )) un espace vectoriel euclidien de base orthonormée B. Soit u ∈ L(E).
Alors : u est un automorphisme orthogonal si et seulement si l’image de B par u est une base orthonormée de E.
Exemple 14.9 : → − →
− → −
Dans R3 muni de sa structure euclidienne usuelle et de la base canonique i , j , k , on définit u ∈ L(E) par
→
− →
− →
− →
− →
− →
− →− →− →−
u i = j , u j = k et u k = i . La base orthonormée i , j , k est transformée par u en la base
− →
→ − → −
orthonormée j , k , i . Donc u ∈ O R3 .
Proposition 14.10 : stabilité de l’orthogonal d’un sous-espace stable par un endo. orthogonal
Soit (E, ( · | · )) un e.v.e. et F un s.e.v. de E. Soit u ∈ O(E).
Si F est stable par u, alors F ⊥ est aussi stable par u.
Corollaire 14.15 : pour les automorphismes, caractérisation de l’orthogonalité par la matrice dans une
BON
Un automorphisme u d’un espace vectoriel euclidien est orthogonal si et seulement si sa matrice dans une base
orthonormale a pour inverse sa transposée :
A−1 = t A.
Méthode :
Pour vérifier qu’une matrice M est orthogonale, on calcule les normes de chacun des vecteurs
colonnes (ou lignes) pour vérifier si elles valent 1 ; puis on vérifie si les colonnes (ou lignes) distinctes
sont orthogonales en calculant les produits scalaires 2 à 2.
Exemple 14.16 :
1
0 − √12
√
2
Soit M = 0 1 0 . On vérifie aisément que M ∈ O3 (R). Si on note u l’endomorphisme de R3 de
√1 0 √1
2 2 →− →− →−
matrice M dans la base canonique i , j , k (orthonormée pour le produit scalaire usuel), alors u est une isométrie
→
−
vectorielle. On verra que u est la rotation d’axe orienté par j et d’angle π4 . De plus, M −1 = tM .
Proposition 14.17 : le groupe On (R)
Le couple (On (R), ×) est un sous-groupe de (GLn (R), ×).
Méthode : pour une matrice de passage P d’une base orthonormée à une autre base orthonormée, on
a P −1 = tP .
Corollaire 14.20 : pour un endomorphisme, formule de changement de bases orthonormées
Soit (E, ( · | · )) un espace vectoriel euclidien de bases orthonormées B et B 0 . Soit u ∈ L(E), A = MatB (u),
A = MatB0 (u) et P = PB→B0 . Alors : A0 = tP AP .
0
Il est clair que dans un espace vectoriel euclidien, l’ensemble des automorphismes orthogonaux de déterminant 1
est stable par la composition, alors que celui des automorphismes de déterminant −1 ne l’est pas. C’est une simple
conséquence de la propriété det(v ◦ u) = det v × det u.
Définition 14.22 : le groupe spécial orthogonal
Soit (E, ( · | · )) un espace vectoriel euclidien.
1. L’ensemble des automorphismes orthogonaux de E de déterminant positif, donc égal à 1, est appelé le groupe
spécial orthogonal de E et noté SO(E).
Ses éléments sont appelés rotations.
2. L’ensemble des automorphismes orthogonaux indirects de E (i.e. de déterminant négatif, égal à −1), est noté
O− (E).
3. Toute symétrie orthogonale par rapport à un hyperplan de E est appelée réflexion.
4. On définit de façon analogue le groupe SOn (R) = SO(n) et l’ensemble On− (R) = O− (n).
Remarque 14.24 :
En revanche, (O− (E), ◦) et (On− (R), ×) ne sont pas des groupes puisque par exemple ne contenant respectivement
pas IdL(E) et In .
Proposition 14.25 : caractérisation de SO(E) par l’image d’une BOND
Soit (E, ( · | · )) un espace vectoriel euclidien. Soit u ∈ L(E) et B une base orthonormée directe de E.
Alors : u ∈ SO(E) si et seulement si l’image de B par u est une base orthonormée directe de E.
!
cos θ − sin θ
1. Soit du type R(θ) = (matrice rotation d’angle θ).
sin θ cos θ
!
cos θ sin θ
2. Soit du type S(θ) = (matrice réflexion).
sin θ − cos θ
1. Soit D et D0 deux droites vectorielles de vecteurs directeurs unitaires u et u0 , alors sD0 ◦ sD = r2(u,u
\ 0) .
2. Toute rotation vectorielle se décompose en produit de deux réflexions vectorielles, dont l’une peut être choisie
arbitrairement.
0 sin θ cos θ
Il suffit alors de déterminer les vecteurs invariants par f pour connaître le plan de la réflexion.
Exemple 14.45 :
Déterminer la nature et les éléments caractéristiques de l’endomorphisme de R3 canoniquement associé à la matrice
−8 4 1
1
M = − 4 7 4 .
9
1 4 −8
Exemple 14.48 :
Nature et éléments caractéristiques de l’endomorphisme de R3 canoniquement associé à la matrice
√
3 1 6
1 √
M = − 1 3 − 6 .
4 √ √
− 6 6 2
Rappelons qu’un projecteur est dit orthogonal lorsque son image et son noyau sont supplémentaires orthogonaux,
et qu’une symétrie est dite orthogonale lorsque la projection qui lui est associée (s = 2p − IdE ) est orthogonale.
Voici deux exemples de référence :
Théorème 14.53 : projection et symétrie orthogonales
1. Un projecteur est symétrique si et seulement si c’est une projection orthogonale.
2. Une symétrie est symétrique ( ! ! !) si et seulement si c’est une symétrie orthogonale.
Proposition 14.54 : stabilité de l’orthogonal d’un sous-espace stable par un endo. symétrique
Soit (E, ( · | · )) un e.v.e. et F un s.e.v. de E. Soit u ∈ S(E).
Si F est stable par u, alors F ⊥ est aussi stable par u.
Corollaire 14.55 : décomposition d’un endomorphisme symétrique à l’aide d’un sous-espace stable
Soit u un endomorphisme symétrique de E et F un sous-espace vectoriel de dimension p de E stable par u. Alors
la matrice M de u dans une base adaptée à la décomposition E = F ⊕⊥ F ⊥ est diagonale par blocs :
!
A 0p,n−p
M = avec A ∈ Mp (R) et B ∈ Mn−p (R).
0n−p,p B
163
15.1. ESPACE PROBABILISÉ MP 2020-21
Ceci revient à dire qu’une tribu est non-vide, stable par complémentaire et réunion dénombrable.
Proposition 15.2 : conséquences immédiates de la définition
Soit T une tribu sur un univers Ω. Alors :
1. ∅ ∈ T .
\
2. Pour toute suite (An )n∈N d’éléments de T , l’intersection An appartient encore à T .
n∈N
3. T est stable par réunion finie.
4. T est stable par intersection finie.
5. Pour tous A et B éléments de T , A ∩ B = A \ B ∈ T .
Exemple 15.3 :
Exemple 15.6 :
Remarque 15.8 :
1. Pour une suite finie d’événements (A0 , A1 , . . . , An ) deux à deux incompatibles, on a encore
n
! n
[ X
P Ak = P (Ak ).
k=0 k=0
Il suffit pour le voir de compléter la suite finie en une suite dénombrable, en posant Ak = ∅ pour tout k > n,
puis d’appliquer la σ-additivité.
2. Pour toute suite dénombrable (An )n∈N d’éléments de T deux à deux incompatibles, la convergence de la série
de terme général P (An ) est claire.
! En effet, il s’agit d’une série à termes positifs dont les sommes partielles Sn
n
[
sont égales à Sn = P Ak et donc sont majorées par 1.
k=0
3. Si les événements ne sont pas deux à deux incompatibles, la série de terme général P (An ) peut diverger. C’est
le cas par exemple lorsqu’on considère une suite d’événements dont tous les termes sont égaux à un événement
de probabilité non nulle.
4. De la remarque précédente, il résulte que si P est une probabilité sur un espace probabilisable (Ω, P(Ω)), où
Ω = {xn , n ∈ N} est un univers dénombrable, il ne peut pas y avoir équiprobabilité des événements élémentaires
P
{xn }. En effet, s’il y avait équiprobabilité, on aurait P ({xn }) = p > 0 pour tout n ∈ N et donc P ({xn })
+∞
X
divergerait, ce qui est absurde, puisque par σ-additivité : P ({xn }) = P (Ω) = 1 !
n=0
Proposition 15.9 : probabilité d’un événement en fonction de celles des singletons le constituant
Soit (Ω, P(Ω), P ) un espace probabilisé, où Ω est un univers au plus dénombrable. Alors, pour tout A ⊂ Ω (c’est-
à-dire pour tout événement A) : X
P (A) = P ({a}).
a∈A
Remarque 15.10 :
Réciproquement, on peut construire une probabilité sur un espace probabilisable (Ω, P(Ω)), Ω = {xn , n ∈ N}
dénombrable.
+∞
X
P
Pour ce faire, on considère une suite (pn )n∈N de réels positifs tels que pn converge et pn = 1. On pose alors :
n=0
∀n ∈ N, P ({xn }) = pn .
Exemple 15.11 :
Soit Ω = N sur lequel on considère la tribu P (Ω). On peut considérer, pour tout p ∈]0, 1[, la probabilité définie par
P ({k}) = p(1 − p)k , puisque ceci est le terme général d’une série positive convergente de somme 1 (cette probabilité
joue en particulier un rôle important lors de l’étude de la loi géométrique).
D’après la définition d’une probabilité, on peut calculer la probabilité d’une réunion dénombrable d’événements
deux à deux incompatibles. La propriété ci-dessous permet de calculer la probabilité d’une réunion dénombrable d’une
suite croissante d’événements :
Théorème 15.13 : théorème de la limite monotone
Soit (Ω, T , P ) un espace probabilisé.
1. Soit (An )n∈N une suite croissante d’événements (au sens où An ⊂ An+1 pour tout entier n ∈ N). Alors :
+∞
!
[
P An = lim P (An ).
n→+∞
n=0
2. Soit (An )n∈N une suite décroissante d’événements (au sens où An+1 ⊂ An pour tout entier n ∈ N). Alors :
+∞
!
\
P An = lim P (An ).
n→+∞
n=0
Remarque 15.14 :
Attention, erreur classique : la suite doit vraiment être monotone !
Exemple 15.15 :
On lance une infinité de fois une pièce équilibrée et on considère l’événement A : « obtenir Pile à tous les lancers ».
Afin de déterminer la probabilité de A, on introduit les événements An : « les n premiers lancers donnent Pile ». Ainsi :
+∞
\
A = An
n=1
où la suite (An )n∈N∗ est une suite décroissante d’événements. On obtient facilement que
1
P (An ) = .
2n
On déduit donc que :
P (A) = lim P (An ) = 0.
n→+∞
Il n’existe pas de formule permettant de calculer la probabilité d’une réunion dénombrable d’événements quel-
conques analogue à celle du crible pour la réunion finie. On peut néanmoins majorer cette probabilité :
Proposition 15.16 : inégalité de Boole
Soit (Ω, T , P ) un espace probabilisé. Soit (An )n∈N une suite d’événements telle que la série de terme général P (An )
converge. Alors : !
+∞
[ +∞
X
P An ≤ P (An ).
n=0 n=0
On dit que P vérifie la propriété de sous-additivité.
Proposition 15.18 : propriétés des événements négligeables et des éléments presque sûrs
Soit (Ω, T , P ) un espace probabilisé.
1. Une réunion au plus dénombrable d’événements négligeables est un événement négligeable :
+∞
!
[
(∀n, P (An ) = 0) =⇒ P An = 0.
n=0
2. Une intersection au plus dénombrable d’événements presque sûrs est un événement presque sûr :
+∞
!
\
(∀n, P (Bn ) = 1) =⇒ P Bn = 1.
n=0
3. L’intersection d’un événement quelconque avec un événement négligeable est un événement négligeable.
La réunion avec un événement négligeable ne change pas la probabilité.
En d’autres termes :
P (A) = 0 =⇒ P (A ∩ B) = 0 ∧ P (A ∪ B) = P (B) .
4. La réunion d’un événement quelconque avec un événement presque sûr est un événement presque sûr.
L’intersection avec un événement presque sûr ne change pas la probabilité.
En d’autres termes :
P (A) = 1 =⇒ P (A ∩ B) = P (B) ∧ P (A ∪ B) = 1 .
Exemple 15.19 :
1. Petite digression au pays des probabilités continues. . . Considérons l’expérience consistant à tirer un nombre réel
au hasard. Quelle est la probabilité de tirer un nombre rationnel ? Un nombre irrationnel ?
[
La probabilité d’obtenir un rationnel choisi à l’avance q est alors nulle. Or Q = {q} est une réunion dénom-
q∈Q
brable, donc la probabilité de tirer un rationnel est nulle d’après le premier point de la proposition précédente.
On en déduit que la probabilité de tirer un irrationnel est égale à 1.
2. Poursuivons l’exemple 15.15, où l’on étudie la première apparition de Pile lorsqu’on lance une pièce une infinité
de fois.
On rappelle que si Pile n’est jamais obtenu le résultat est considéré comme nul, et que si Pile est obtenu a
première fois au n-ième lancer alors le résultat est n. De fait Ω = N.
1
On choisit comme tribu P(Ω) et comme probabilité la fonction définie par P ({n}) = n si n ≥ 1. Comme {0}
2
est le complémentaire dans Ω de N∗ , il vient
+∞
X 1
P ({0}) = 1 − n
= 0.
n=1
2
15.2 Conditionnement
Dans ce paragraphe, nous allons généraliser la notion de probabilité conditionnelle vue en Sup dans le cas des
univers finis, au cas des univers au plus dénombrables.
PA : T −→ [0, 1]
P (A ∩ B)
B 7−→
P (A)
Alors :
!
n
\ n
Y i−1
\
P Ak = P Ai | Aj
k=1 i=1 j=1
\
(car = Ω et P (X|Ω) = P (X)).
∅
Exemple 15.23 :
On considère une urne contenant 6 boules blanches et 4 noires. On tire une à une et sans remise trois boules.
On s’intéresse à l’événement A = « obtenir une boule blanche puis deux noires ». On introduit les événements B1 =
« obtenir une boule blanche au premier tirage », N2 = « obtenir une boule noire au second tirage » et N3 = « obtenir
une boule noire au dernier tirage ». Ainsi :
6 4 3 1
P (A) = P (B1 ∩ N2 ∩ N3 ) = P (A1 )PB1 (N2 )PB1 ∩N2 (N3 ) = × × = .
10 9 8 10
+∞
X +∞
X +∞
X
P (B) = P (B ∩ An ) = PAn (B)P (An ) = P (B|An )P (An ).
n=0 n=0 n=0
Remarque 15.25 :
1. Dans la formule précédente, on peut s’affranchir de la condition « événements de probabilités non nulles » en
adoptant la convention P (B|An )P (An ) = 0 lorsque P (An ) = 0.
2. La formule reste valable dans le cas d’une suite (An )n∈N set formant un système quasi-complet d’événements
+∞
X +∞
[
(événements deux à deux incompatibles tels que P (An ) = 1 au lieu de Ai = Ω).
n=0 i=0
Exemple 15.26 :
Reprenons l’exemple 15.23 précédent, considérant une urne contenant 6B4N . Déterminons la probabilité de l’évé-
nement A = « obtenir une boule noire au second tirage », en introduisant le système complet d’événements constitué
de B1 et N1 = B 1 , où B1 est l’événement « obtenir une boule blanche au premier tirage ». Ainsi :
6 4 4 3 2
P (A) = P (B1 )PB1 (A) + P (N1 )PN1 (A) = × + × = .
10 9 10 9 5
Remarque 15.29 :
Cette formule permet de calculer la probabilité d’événements Ai sachant B, alors que c’est l’événement B qui
dépend des événements Ai .
En d’autres termes la formule de Bayes permet de remontrer dans le temps !
Exemple 15.30 :
1
On considère 100 dés, dont 25 sont pipés au sens où la probabilité d’obtenir 6 est . On lance un dé choisi au
2
hasard et on obtient 6. Quelle est la probabilité de l’événement A = « le dé lancé est pipé » ?
De ces définitions découlent les propriétés suivantes. Les démonstrations de Sup peuvent ici être reprises.
Proposition 15.32 : propriétés des événements indépendants
Soit (Ω, T , P ) un espace probabilisé, A ∈ T tel que P (A) > 0 et B ∈ T . Alors :
1. Les événements A et B sont indépendants si et seulement si pA (B) = p(B).
2. Si A et B sont des événements indépendants alors les événements A et B sont indépendants, ainsi que les
événements A et B.
Ainsi trois événements A1 , A2 et A3 sont mutuellement indépendants lorsque les quatre égalités ci-dessous sont
satisfaites :
et
P (A1 ∩ A2 ∩ A3 ) = P (A1 )P (A2 )P (A3 ).
Pour une suite finie de n ≥ 2 événements distincts, le nombre d’égalités à vérifier est égal à :
n n n
+ + ··· + = (1 + 1)n − n − 1.
2 3 n
Proposition 15.34 : propriétés immédiates des suites d’événements mutuellement indépendants
1. Des événements mutuellement indépendants sont indépendants deux à deux (réciproque fausse).
2. Soit (A1 , . . . , An ) ∈ T n une famille de n événements mutuellement indépendants. Alors les événements A1 et
\n
Ak sont indépendants.
k=2
3. Soit (A1 , . . . , An ) ∈ T n une
! famille de n événements mutuellement indépendants. Alors pour toute partie I ⊂
\
[[1, n]] telle que P Ak > 0 :
k∈I
! !
\ \
∀i ∈
/ I, P Ai Ak = P (Ai ) et ∀i ∈ I, P Ai Ak = 1.
k∈I k∈I
Remarque 15.35 :
L’indépendance deux à deux n’entraîne pas l’indépendance mutuelle. Il suffit de considérer l’expérience aléatoire
suivante : on lance deux dés équilibrés et soit A l’événement « le premier dé donne un nombre pair », B l’événement « le
second dé donne un nombre impair » et C l’événement « les deux dés donnent des numéros de même parité ». Alors, en
1 1
considérant la probabilité uniforme naturelle, il vient P (A) = P (B) = P (C) = , P (A∩B) = P (A∩C) = P (C∩B) =
2 4
mais P (A ∩ B ∩ C) = 0 6= P (A)P (B)P (C).
Proposition 15.36 : probabilité de l’intersection d’événements mutuellement indépendants
Soit (Ω, T , P ) un espace probabilisé, et (An )n∈N une suite d’événements mutuellement indépendants. Alors
+∞
! n
\ Y
P An = lim P (Ak ).
n→+∞
n=0 k=0
Proposition 15.37 : une CNS pour que des événements soient mutuellement indépendants
Soit (Ω, T , P ) un espace probabilisé. Alors : une suite (An )n∈N d’événements est une suite d’événements mutuelle-
ment indépendants si et seulement si pour tout entier n, les événements A0 , . . . , An sont mutuellement indépendants.
En Sup, nous avons étudié les variables aléatoires X associées à des probabilités P sur un univers fini Ω, et pour
lequel la tribu considérée était toujours P(Ω). Ceci nous a permis de définir la probabilité que la variable aléatoire X
prenne ses valeurs dans une partie A, à savoir P (X ∈ A).
En Spé, nous nous plaçons dans le cas d’une univers pas forcément fini mais au plus dénombrable, et pour une
tribu T pouvant être différente de P(Ω). Ces variables aléatoires seront dites discrètes. Étant donné que P (X = x) =
P (X −1 ({x})), il nous faudra une condition sur les images réciproques X −1 ({x}) de la variable aléatoire X afin de
pouvoir calculer la probabilité P (X = x).
En L3 nous étudierons les variables aléatoires continues, c’est-à-dire associées à des probabilités sur un univers
continu (par exemple R).
Nous travaillons désormais sur un univers Ω au plus dénombrable, constitué de tous les résultats possibles d’une
expérience. Cet univers sera muni d’une tribu T .
Dans tout ce chapitre, nous considérerons également un ensemble E.
Remarque 16.2 :
1. En probabilités, on utilise la notation absolument pas rigoureuse suivante : l’image réciproque par X d’un élément
x de E est noté [X = x] ou (X = x). Ceci signifie
173
16.1. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21
3. La définition d’une variable aléatoire ne dépend pas d’une quelconque probabilité P , mais seulement de l’espace
probabilisable (Ω, T ).
4. En Sup Ω est fini, ainsi X(Ω) est fini donc au plus dénombrable. En outre chaque (X = x) = X −1 ({x}) est
également fini.
Par conséquent les variables aléatoires vues en Sup sont également des variables aléatoires discrètes.
5. Attention ! Une application Ω → E quelconque avec Ω fini n’est pas toujours une variable aléatoire. Il faut que
chaque [X = x] soit un événement !
lancers successifs d’un pièce et Ω = {P P, F F, P F, F P }. On définit une tribu en
Considérons npar exemple deux o
posant T = ∅, Ω, {P P }, {P P } : ceci contient Ω, c’est stable par complémentaire et par réunion dénombrable.
Soit X : Ω → R l’application qui associe à chaque résultat le nombre de Piles obtenu : ce n’est pas une variable
aléatoire car l’ensemble (X = 1) = X −1 ({1}) = {P F, F P } des résultats de Ω ayant un seule Pile n’est pas
constitué d’éléments de T .
(X ∈ ∅) = ∅, (X ∈ E) = Ω.
3. La famille d’événements (X = xk ) forme une système complets d’événements.
k∈K
Remarque 16.4 :
Ces propriétés permettent de donner une CNS pour que X : Ω → R (c’est-à-dire pour E = R) soit une VAD :
• X(Ω) est au plus dénombrable.
• Pour tout intervalle I de R, on a (X ∈ I) ∈ T .
En effet si X est une VAD c’est une application directe de la proposition.
Réciproquement, supposons que X vérifie les deux propriétés ci-dessus. Soit x ∈ R et I = [a, b] un segment
contenant x. Alors :
(X = x) = (X ∈ [a, x] ∩ [x, b]) = (X ∈ [a, x]) ∩ (X ∈ [x, b]) ∈ T .
Afin de parler d’espérance et de variance, nous avons besoin du carré d’une variable aléatoire réelle. Voici la
proposition qui nous le permettra :
Proposition 16.7 : fonction d’une variable aléatoire
Soit X : Ω → E une variable aléatoire discrète. Considérons une fonction f : X(Ω) → F .
Alors l’application f ◦ X : Ω → F définie par (f ◦ X)(ω) = f (X(ω)) est une variable aléatoire discrète.
On la note usuellement f (X).
Cette proposition permettra de définir l’espérance et la variance. Elle permet aussi de vérifier que les composantes
d’un vecteur aléatoire sont bien des variables aléatoires :
Corollaire 16.8 : si (X1 , X2 ) vecteur aléatoire discret réel alors X1 et X2 VAD réelles
Soit X : Ω → R2 un vecteur aléatoire discret réel. Notons p1 et p2 les projections canoniques de R2 dans R,
c’est-à-dire définies par p1 (x) = x1 et p2 (x) = x2 , pour x = (x1 , x2 ).
Notons X1 = p1 (X) et X2 = p2 (X). Alors X1 et X2 sont des variables aléatoires discrètes réelles définies sur Ω.
Réciproquement, prouvons que deux variables aléatoires discrètes X1 et X2 donnent lieu à un vecteur aléatoire
discret (X1 , X2 ) :
Proposition 16.9 : si X1 et X2 VAD réelles alors (X1 , X2 ) vecteur aléatoire discret
Soit X1 et X2 deux variables aléatoires discrètes réelles. Définissons X = (X1 , X2 ) : Ω → R2 par X(ω) =
(X1 (ω), X2 (ω)). Alors X est un vecteur aléatoire discret réel.
∀ω ∈ Ω, min(X, Y )(ω) = min{X(ω), Y (ω)}, max (X, Y )(ω) = max {X(ω), Y (ω)}.
Alors min(X, Y ) et max (X, Y ) sont des variables aléatoires discrètes réelles.
2. Pour tout (λ, µ) ∈ R2 , on définit λX + µY par :
Remarque 16.11 :
Les résultats pour des vecteurs aléatoires à valeurs dans R2 peuvent être étendus à des vecteurs aléatoires à valeurs
dans Rk , k ≥ 2.
∀A ∈ A, PX (A) = P (X ∈ A).
On en déduit :
Proposition 16.15 : sommabilité de (P (X = xk ))k∈K
Soit (Ω, T , P ) un espace probabilisé.
Soit X : Ω → E une variablealéatoire discrète. Notons X(Ω) = {xk / k ∈ K} pour K ⊂ N.
Alors la famille P (X = xk ) est sommable de somme 1.
k∈K
Remarque 16.16 :
Attention, deux variables aléatoires peuvent avoir la même loi sans être égales. En d’autres termes PX = PY mais
X 6= Y .
Exemple 16.17 :
Considérons une variable aléatoire X à valeurs dans E = {−1, 0, 1} et de loi donnée par
P (X = −1) = P (X = 0) = P (X = 1).
Posons Y = −X.
Démontrer que PX = PY mais que X 6= Y .
Conformément au programme officiel, nous admettrons le résultat suivant, qui donne une sorte de réciproque à la
proposition précédente :
P
Proposition 16.18 : construction d’une probabilité à l’aide de (pk )k telle que k∈K pk = 1
Soit (Ω, T ) un espace probabilisable.
Soit X : Ω → E une variable aléatoire discrète. NotonsX X(Ω) = {xk / k ∈ K}, pour K ⊂ N, les xk étant distincts.
Si (pk )k∈K est une suite de réels positifs vérifiant pk = 1. Alors il existe une probabilité P sur (Ω, T ) telle que
k∈K
P (X = xk ) = pk pour tout k ∈ K.
Lemme 16.19 : lim P (X ≥ n) = 0
n→+∞
Soit X une VARD sur un espace probabilisé. Alors lim P (X ≥ n) = 0.
n→+∞
∀x ∈ R, FX (x) = P (X ≤ x).
Exemple 16.22 :
On considère l’expérience aléatoire qui consiste à lancer successivement trois pièces de monnaie équilibrées et on
s’intéresse au résultat Pile ou Face obtenu sur chaque pièce. L’univers associé à cet expérience aléatoire est
Ω = {P P P, P P F, P F P, P F F, F P P, F P F, F F P, F F F }.
On note X la variable aléatoire qui à un résultat de ce lancer associe le nombre de « Pile » obtenus.
Déterminer la loi de probabilité de X et sa fonction de répartition.
Remarque 16.23 :
La connaissance de la fonction de répartition permet de calculer la probabilité de tout intervalle :
• P (X ∈] − ∞, x]) = P (X ≤ x) = FX (x).
• P (X ∈]x, +∞[) = P (X > x) = 1 − P (X ≤ x) = 1 − FX (x).
• P (X ∈]x, y]) = FX (y) − FX (x).
• P (X ∈] − ∞, x[) = P (X < x) = FX (x− ).
• P (X ∈]x, y[) = P (x < X < y) = FX (y− ) − FX (x).
• P (X ∈ [x, y[) = P (x < X < y) = FX (y− ) − FX (x− ).
• P (X ∈ [x, y]) = P (x ≤ X ≤ y) = FX (y) − FX (x− ).
Remarque 16.25 :
2. La loi de probabilité PY de la variable aléatoire discrète réelle Y est déterminée à partir de la loi P(X,Y ) du
couple (X, Y ) par :
• Y (Ω) = {yj / j ∈ J}.
X
• P (Y = yj ) = P (X, Y ) = (xi , yj ) , pour tout j ∈ J.
i∈I
La loi conjointe de deux variables aléatoires discrète se visualise à l’aide d’un tableau (éventuellement infini dé-
nombrable). Pour toutes variables aléatoires discrètes réelles X et Y :
Le n-ième élément de la dernière colonne, soit PX (xn ), s’obtient en additionnant les termes de la n-ième ligne. De
même pour la k-ième colonne.
Définition 16.27 : lois marginales d’un couple (X, Y )
Les lois PX et PY de X et Y sont appelées lois marginales du couple (X, Y ).
Proposition 16.28 : loi conditionnelle
Soit X et Y deux variables aléatoires discrètes réelles sur (Ω, T , P ).
Considérons x ∈ R tel que l’événement (X = x) soit de probabilité non nulle. Notons A = P(Y (Ω)), ensemble des
parties de Y (Ω).
Alors l’application
A = P(Y (Ω)) −→ [0, 1], A 7−→ P(X=x) ([Y ∈ A])
est une probabilité sur (Y (Ω), P(Y (Ω))).
Nous allons établir une réciproque partielle. Plus précisément, nous allons déterminer la loi conjointe P(X,Y ) de
(X, Y ) en fonction des lois PX et PY lorsque X et Y seront indépendantes au sens défini ci-dessous.
Définition 16.30 : VA indépendantes
Soit X1 , . . . , Xn n variables aléatoires discrètes réelles sur Ω.
On dit qu’elles sont indépendantes lorsque pour tous x1 ∈ X1 (Ω), . . . , xn ∈ Xn (Ω), les événements (X1 = x1 ), . . . ,
(Xn = xn ) sont indépendants.
Remarque 16.31 :
Si X1 , . . . , Xn sont n variables aléatoires discrètes réelles indépendantes, alors :
1. Pour tous x1 ∈ X1 (Ω), . . . , xn ∈ Xn (Ω), on a :
n
! n
\ Y
P (Xi = xi ) = P (Xi = xi ).
i=1 i=1
On en déduit que :
Proposition 16.32 : produit de lois marginales
La loi conjointe P(X1 ,X2 ) du couple X = (X1 , X2 ) de deux variables aléatoires indépendantes X1 et X2 est égale
au produit des lois marginales :
∀(x1 , x2 ) ∈ X(Ω) = (X1 , X2 )(Ω), P(X1 ,X2 ) (x1 , x2 ) = PX1 (x1 )PX2 (x2 ).
Remarque 16.33 :
• Si P(X1 ,X2 ) est connue alors PX1 et PX2 sont connues (proposition 16.26).
• Si PX1 et PX2 sont connues et si X1 et X2 sont indépendantes, alors P(X1 ,X2 ) est connue (proposition 16.32).
Étendons cette notion d’indépendance de n variables aléatoires discrètes à une suite de variables aléatoires :
Définition 16.35 : suite de VA indépendantes
Soit (Xi )i∈N une suite de variables aléatoires discrètes réelles. On dit que c’est une suite de variables aléatoires indé-
pendantes lorsque pour tout sous-ensemble fini I = {i1 , . . . , ik } de N les variables aléatoires (Xi )i∈I sont indépendantes,
au sens où : pour tous xi1 ∈ Xi1 (Ω), . . . , xik ∈ Xik (Ω), les événements (Xi1 = xi1 ), . . . , (Xik = xik ) sont indépendants.
Grâce à la caractérisation d’une suite d’événements indépendants vue dans la proposition 15.37 du chapitre 15
(probabilités), on obtient la caractérisation suivante :
Proposition 16.36 : une CNS pour qu’une suite de VADR soit une suite de VA indépendantes
Soit (Xi )i∈N une suite de variables aléatoires discrètes réelles. Alors : cette suite est une suite de variables aléatoires
indépendantes si et seulement si pour tout entier n ≥ 1, les variables aléatoires (Xi )0≤i≤n sont indépendantes.
Proposition 16.37 : une CNS d’indépendance de variables aléatoires de Bernoulli
Soit (Xi )i∈N une suite de variables aléatoires de Bernoulli (X à valeurs dans {0, 1}).
Alors : les variables aléatoires (Xi )i∈N sont indépendantes si et seulement si les événements (Xi = 1), i ∈ I, sont
indépendants.
Exemple 16.38 :
Revenons sur un exemple du chapitre 15 formulé en termes de variables aléatoires de Bernoulli.
On lance deux dés et on introduit les trois variables aléatoires de Bernoulli X1 , X2 , X3 définies par : (X1 = 1)
si le premier dé donne un résultat pair ; (X2 = 1) si le second dé donne un résultat pair ; (X3 = 1) si la somme des
numéros des deux dés est paire.
Vérifions que les trois événements (X1 = 1), (X2 = 1) et [X3 = 1] sont deux à deux indépendants mais pas
mutuellement indépendants :
1
• Pour tout i ∈ [[1, 3]], P (Xi = 1) = P (Xi = 0) = .
2
• (X1 = 1) = {P P, P I}, (X2 = 1) = {P P, IP }, (X3 = 1) = {P P, II}.
• (X1 = 1) ∩ (X2 = 1) = {P P }, (X1 = 1) ∩ (X2 = 0) = {P I}, (X1 = 0) ∩ (X2 = 1) = {IP }, (X1 = 0) ∩ (X2 =
0) = {II}.
1
Ainsi P (X1 = i) ∩ (X2 = j) = = P (X1 = i) × P (X2 = j) et X1 , X2 indépendantes. On prouve de même
4
que X2 , X3 indépendantes et X1 , X3 indépendantes.
1
• Par contre (X1 = 1) ∩ (X2 = 1) ∩ (X3 = 1) = {P P } donc P (X1 = 1) ∩ (X2 = 1) ∩ (X3 = 1) = alors que
4
1
P (X1 = 1) × P (X2 = 1) × P (X3 = 1) = .
8
Par conséquent les variables aléatoires X1 , X2 et X3 sont deux à deux indépendantes mais pas mutuellement indépen-
dantes.
Conformément au programme officiel, le résultat suivant est admis :
Théorème 16.39 : fonction de variables aléatoires, ou lemme des coalitions
Soit X1 , . . . , Xn n variables aléatoires discrètes réelles indépendantes.
Alors toute fonction de X1 , . . . , Xk est indépendante de toute fonction de Xk+1 , . . . , Xn .
Dans le cas de deux variables X1 , X2 indépendantes, nous pouvons néanmoins prouver le théorème :
Mais un problème mathématique subsiste : de quel espace probabilisé (Ω, T, P ) les Ai sont-ils des événements et quelle
est la probabilité P ?
Des questions analogues se posent lorsqu’on enchaîne une infinité dénombrable de fois des expériences aléatoires
indépendantes, par exemple lorsqu’on répète une infinité de fois une même expérience.
Pour répondre à ces questions nous allons maintenant définir les notions nécessaires à la modélisation d’un tel
problème.
Ω = Ω1 × Ω2 × · · · × Ωn .
T = T 1 × · · · × Tn .
Exemple 16.41 :
Considérons deux espaces probabilisables (Ωi , Ti ) pour i ∈ {1, 2}, munis chacun d’une tribu : Ti = {∅, Ωi , Ai , Ai }.
Décrire les 16 pavés mesurables. Déterminer ensuite la tribu produit.
Le théorème permettant de définir une probabilité sur cette nouvelle tribu produit est admis par le programme :
Théorème 16.42 : probabilité produit
Il existe une unique probabilité P sur la tribu produit T telle que pour tout pavé mesurable A = A1 × · · · × An
n
Y
P (A) = Pi (Ai ).
i=1
P = P 1 ⊗ · · · ⊗ Pn .
On a donc bien construit un espace probabilisé dans lequel les événements associés à des expériences aléatoires
indépendantes sont naturellement vus comme des événements mutuellement indépendants.
Voyons maintenant le cas d’un produit infini d’espaces probabilisés, dans un contexte restreint qui suffira pour
répondre aux attentes du programme officiel.
1. i.e. la plus petite tribu de parties de Ω qui existe contenant les pavés mesurables puisque c’est l’intersection de toutes les tribus de
Ω qui contiennent lesdits pavés.
d’une infinité dénombrable de copies de l’ensemble E. Ω est l’ensemble des suites infinies (xn )n∈N∗ d’éléments de E.
Définition 16.45 : tribu cylindrique
+∞
Y
1. On appelle ensembles cylindriques ou plus simplement cylindres les sous-ensembles de Ω de la forme C = Ai ,
i=1
tels que Ai ⊂ E et Ai = E à partir d’un certain rang :
C = A1 × · · · × An C × E × E × · · · × E × · · ·
2. On appelle tribu cylindrique la tribu sur Ω engendrée par les cylindres. On la notera T .
Le théorème suivant, admis par le programme, permet de définir une probabilité sur T vérifiant les conditions
souhaitées.
Théorème 16.46 : une probabilité sur la tribu cylindrique
Il existe une unique probabilité P sur la tribu cylindrique T telle que, pour tout cylindre de la forme C =
A1 × · · · × AnC × E × · · · , on ait
nC
Y
P (C) = P (Ai ).
i=1
Remarque 16.47 :
Comme dans le cas d’un produit fini d’espaces probabilisés, on voit que des événements relatifs à des coordonnées
différentes, sont des événements indépendants pour la probabilité P .
Ce cadre convient à l’étude d’une infinité d’expériences indépendantes. L’expérience aléatoire consistant en une
infinité de répétitions indépendantes de l’expérience aléatoire E représentée par (E, P(E), P ) est en effet modélisée
par l’espace probabilisé (Ω, T , P ).
Exemple 16.48 :
1. On lance une infinité de fois une pièce de monnaie équilibrée. Ici, E = {P, F }, et P est la probabilité uniforme.
Le théorème assure donc que l’on peut définir un espace probabilisé (Ω, T , P ) où Ω est l’ensemble des suites à
valeurs dans {P, F }.
Par ailleurs la probabilité d’obtenir une suite donnée de Piles ou Faces aux n0 > 0 premiers lancers et n’importe
1
quel résultat à partir du rang n0 + 1, est égale à n0 .
2
Pour tout n ∈ N∗ , au n-ième lancer, on peut également introduire la variable aléatoire de Bernoulli Xn (égale à
1 si l’on obtient Pile et 0 sinon). On définit ainsi une suite (Xn )n∈N∗ de variables aléatoires telles que :
n0
!
Y 1
P [Xk = xk ] = n0 .
2
k=1
(a) Calculer la probabilité d’obtenir le premier succès à la k-ième tentative (événement noté Ak ) (k ≥ 1).
(b) Préciser l’espace probabilisé dans lequel on peut modéliser le jeu et montrer que l’événement Ak de la
question 1) est un événement cylindrique.
(c) Quelle est la probabilité que le succès n’arrive jamais ?
16.3 Espérance
16.3.1 Définitions et premières propriétés
En MPSI, nous avons défini pour une variable aléatoire X réelle et prenant pour valeurs x1 , . . . , xn , l’espérance
de X grâce à la formule :
Xn Xn
E(X) = xi PX (xi ) = xi P (X = xi ).
i=1 i=1
Nous allons généraliser cette notion aux variables aléatoires discrètes réelles. La variable aléatoire X prend désormais
un nombre au plus dénombrable de valeurs. On la suppose pour le moment et pour plus de commodité à valeurs
positives : X(Ω) ={xk / k ∈ N} avec
xk ≥ 0 pour tout k. L’espérance de X est alors par définition la somme (finie ou
non) de la famille xk P (X = xk ) .
k∈N
Définition 16.49 : espérance d’une variable aléatoire discrète
Soit X une variable aléatoire réelle. On dit que X est d’espérance finie lorsque la famille xP (X = x) est
x∈X(Ω)
X
sommable. Sa somme E(X) = xP (X = x) est appelée espérance de X.
x∈X(Ω)
Lorsque la famille xP (X = x) n’est pas sommable (mais quand même à termes positifs), on dit parfois
x∈X(Ω)
que X admet une espérance infinie.
Remarque 16.50 :
• Une variable aléatoire discrète prenant un nombre fini de valeurs admet toujours une espérance.
• Une variable aléatoire prenant un nombre dénombrable de valeurs n’admet pas toujours une espérance !
Exemple 16.51 :
1. On lance deux dés et on note X la variable aléatoire égale à la somme des numéros apparaissant sur les deux
dés. Déterminer l’espérance de X.
2. Soit X une variable aléatoire prenant les valeurs n ∈ N∗ avec les probabilités :
1
P ([X = n]) = .
n(n + 1)
3. Soit une variable aléatoire X prenant les valeurs n ∈ Z∗ avec les probabilités :
1
P (X = n) = .
2|n|(|n| + 1)
Déterminer l’espérance de X.
Remarque 16.57 :
1. Le théorème de transfert nous donne une démonstration très courte de la linéarité de l’espérance. En effet il
vient λX + µY = f ◦ (X, Y ) où f (x, y) = λx + µy et X, Y sont deux variables aléatoires, donc sous réserve
d’existence :
X
E(λX + µY ) = E(f (X, Y )) = (λx + µy)P (X, Y ) = (x, y)
(x,y)
X
= (λx + µy)P ([X = x] ∩ [Y = y])
(x,y)
X X
= λ xP ([X = x] ∩ [Y = y]) + µ yP ([X = x] ∩ [Y = y])
(x,y) (x,y)
X X X X
= λ x P ([X = x] ∩ [Y = y]) + µ y P ([X = x] ∩ [Y = y])
x y y x
X X X X
= λ x P ([X = x])P ([Y = y]) + µ y P ([X = x])P ([Y = y]) (loi marginale de X)
x y y x
X X X X
= λ xP ([X = x]) P ([Y = y]) + µ yP ([Y = y]) P ([X = x])
x y y x
X X
= λ xP ([X = x]) + µ yP ([Y = y]) = λE(X) + µE(Y ).
x y
2. Ce théorème prouve par la même occasion qu’il n’est pas nécessaire de déterminer la loi de f (X) pour calculer
l’espérance de f (X) : on n’a besoin que de connaître la loi de X et la fonction f .
Exemple 16.58 :
1 2 2
Soit X une variable aléatoire ne prenant que les valeurs −1, 0 et 1 avec les probabilités , et .
9 9 3
1 2 2 7
E(X 2 ) = f (−1)P (X = −1) + f (0)P (X = 0) + f (1)P (X = 1) = 1 × +0× +1× = .
9 9 3 9
Exemple 16.62 :
On lance deux dés. On note X et Y le minimum et le maximum obtenus sur les faces des deux dés. On a ainsi
X ≤ Y et donc E(X) ≤ E(Y ).
La propriété suivante sera utile lors de l’étude de la variance d’une somme :
Proposition 16.63 : toute VA absolument majorée par une VA à espérance a une espérance
Soit X et Y deux variables aléatoires discrètes réelles. On suppose que Y admet une espérance finie et que
0≤X ≤Y.
Alors X a une espérance finie.
E(X)
P ([X ≥ a]) ≤ .
a
E(XY ) = E(X)E(Y ).
Remarque 16.66 :
La réciproque de cette proposition est fausse. Il se peut E(XY ) = E(X)E(Y ) sans que X et Y soient indépendantes.
Exemple 16.67 :
1
Considérons X la variable aléatoire de loi uniforme sur {−1, 0, 1} (P (X = −1) = P (X = 0) = P (X = 1) = ) et
3
Y = X 2 . Démontrer que E(XY ) = E(X)E(Y ) avec X et Y non indépendantes.
Remarque 16.69 :
Attention, il ne suffit pas que les variables aléatoires soient seulement indépendantes deux à deux.
Exemple 16.70 :
Revenons sur l’exemple 16.38. On considère un lancer de deux dés et les variables X, Y , Z de Bernoulli définies
par : (X = 1) lorsque le premier dé donne un résultat pair ; (Y = 1) lorsque le second dé donne un résultat pair ;
(Z = 1) lorsque la somme des résultats des deux dés donne un résultat pair. Les variables aléatoires X, Y et Z sont
1 1
indépendantes deux à deux, mais E(XY Z) = et E(X)E(Y )E(Z) = .
4 8
1. Il est clair que X et Y sont indépendantes.
2. Prouvons que X et Z sont indépendantes.
1 1 1
D’une part P (X = i)P (Z = j) = × = . D’autre part, comme déjà vu :
2 2 4
1
• L’événement (X = 1) ∩ (Z = 1) n’est réalisé que pour P P , donc P (X = 1) ∩ (Z = 1) = .
4
1
• L’événement (X = 1) ∩ (Z = 0) n’est réalisé que pour P I, ce qui donne P (X = 1) ∩ (Z = 0) = .
4
1
• L’événement (X = 0) ∩ (Z = 1) n’est réalisé que pour II, ce qui donne P (X = 0) ∩ (Z = 1) = .
4
1
• L’événement (X = 0) ∩ (Z = 0) n’est réalisé que pour IP , ce qui donne P (X = 0) ∩ (Z = 0) = .
4
3. De même Y et Z sont indépendantes.
4. Calcul des espérances :
XY Z(P P ) = 1 × 1 × 1 = 1, XY Z(P I) = 1 × 0 × 0 = 0,
XY Z(IP ) = 0 × 1 × 0 = 0, XY Z(II) = 0 × 0 × 1 = 0,
donc
X 1
E(XY Z) = xP (XY Z = x) = 1 × P (XY Z = 1) + 0 × P (XY Z = 0) = ,
4
x∈{0,1}
1
alors que E(X)E(Y )E(Z) = .
8
16.3.3 Moments
Définition 16.71 : moment d’ordre m
Soit X une variable aléatoire discrète réelle et m ∈ N∗ . Si X m admet une espérance finie, on dit que X admet un
moment d’ordre m, et ce moment d’ordre m est E(X m ).
Remarque 16.72 :
1. Dire que X admet un moment d’ordre 1 signifie donc que X admet tout simplement une espérance !
Remarque 16.74 :
Cette propriété peut facilement être généralisée : l’existence d’un moment d’ordre m entraîne les existences des
moments d’ordre n ≤ m.
Théorème 16.75 : inégalité de Cauchy-Schwarz
Soit X et Y deux variables aléatoires discrètes réelles admettant chacune un moment d’ordre 2.
Alors XY a une espérance finie et E(XY )2 ≤ E(X 2 )E(Y 2 ).
On a défini l’espérance, qui est une moyenne des valeurs prises par une variable aléatoire X, pondérée par les
probabilités. On définit maintenant une quantité permettant de mesurer l’écart autour de cette moyenne, c’est-à-dire
l’écart autour de l’espérance.
Définition 16.77 : variance
Soit X une variable aléatoire discrète réelle admettant un moment d’ordre deux. On définit alors la variance de X,
notée V (X), par :
V (X) = E (X − E(X))2
et l’écart-type de X par : p
σ(X) = V (X).
Remarque 16.78 :
1. Une variable aléatoire ne prenant qu’un nombre fini de valeurs admet toujours une espérance, des moments à
tout ordre et donc une variance.
2. La définition de la variance a un sens.
En effet X admet un moment d’ordre deux donc d’ordre 1, ainsi en posant m = E(X) : la variable aléatoire
(X − m)2 = X 2 − 2mX + m2 admet bien une espérance.
X − E(X)
2. La variable aléatoire a une espérance nulle et un écart-type égal à 1.
σ(X)
Elle est appelée variable centrée réduite associée à X.
Remarque 16.81 :
Si X est une variable aléatoire discrète réelle admettant un écart-type nul, alors X est presque sûrement égale à
une variable aléatoire constante: P (X = E(X)) = 1.
En effet si σ(X) = 0 alors E (X − E(X)) = 0 donc P (X − E(X))2 = 0 = 1 c’est-à-dire P (X = E(X)) = 1.
2
Remarque 16.83 :
La quantité P (|X − E(X)| ≥ ε) est la probabilité que X prenne des valeurs dont la distance à E(X) est supérieure
ou égale à ε. Cette probabilité est d’autant plus faible que ε est grand et que V (X) est petit (la variance mesure la
dispersion des valeurs prises par X).
Définition 16.84 : covariance
Soit X et Y deux variables aléatoires discrètes réelles admettant un moment d’ordre 2.
On appelle covariance de X et de Y le nombre réel
cov(X, Y ) = E (X − E(X))(Y − E(Y )) ,
qui existe puisque X, Y et XY admettent de fait une espérance (cf. proposition 16.73 et théorème 16.75).
Proposition 16.85 : existence de la covariance
Soit X et Y deux variables aléatoires discrètes réelles admettant un moment d’ordre deux.
Alors la covariance de X et de Y existe et on a :
La définition de la covariance et de la linéarité de l’espérance permettent d’obtenir les règles de calcul ci-dessous :
Proposition 16.86 : propriétés de la covariance
Soit X , X 0 , Y et Y 0 quatre variables aléatoires discrètes réelles et admettant un moment d’ordre deux. Fixons a,
b, c, d quatre réels. Alors :
1. cov(Y, X) = cov(X, Y ).
2. cov(X, X) = V (X).
3. cov(aX + b, cY + d) = ac cov(X, Y ).
4. cov(aX + bX 0 , cY + dY 0 ) = ac cov(X, Y ) + bc cov(X 0 , Y ) + ad cov(X, Y 0 ) + bd cov(X 0 , Y 0 ).
Remarque 16.87 :
La covariance est donc une forme bilinéaire symétrique positive sur l’espace vectoriel des variables aléatoires
discrètes réelles admettant un moment d’ordre deux.
Proposition 16.88 : deux variables aléatoires indépendantes sont de covariance nulle
Soit X et Y deux variables aléatoires discrètes réelles.
Si X et Y sont indépendantes et admettent un moment d’ordre deux, alors cov(X, Y ) = 0.
Remarque 16.89 :
La contraposée de cette proposition est souvent utilisée : si cov(X, Y ) 6= 0 alors X et Y ne sont pas indépendantes.
Attention : si cov(X, Y ) = 0, on ne peut rien conclure quant à l’indépendance de X et Y .
Définition 16.90 : VA non corrélées
Soit X et Y deux variables aléatoires admettant une covariance nulle.
On dit alors que les variables X et Y sont non corrélées.
Proposition 16.91 : variance de la somme
Soit X et Y deux variables aléatoires discrètes réelles. Si elles admettent un moment d’ordre deux, alors :
1. La variable aléatoire X + Y a un moment d’ordre deux et V (X + Y ) = V (X) + V (Y ) + 2 cov(X, Y ).
2. Si X et Y sont indépendantes, alors V (X + Y ) = V (X) + V (Y ).
2. Si les variables X1 , . . . , Xn sont deux à deux indépendantes (pas besoin qu’elles soient mutuellement indépen-
dantes), alors :
n
X
V (X1 + · · · + Xn ) = V (Xi ).
i=1
Remarque 16.93 :
Cette propriété implique que la variance d’une somme de variables aléatoires (discrètes, réelles et admettant toutes
un moment d’ordre deux) est la somme des variances dès que les variables aléatoires sont deux à deux non corrélées.
Remarque 16.95 :
σ2
Sn
P − m ≥ ε ≤
n nε2
pour les valeurs réelles de t telles que la variable aléatoire discrète tX admet une espérance finie.
Remarque 16.98 :
L’application tX , à t réel fixé, est une variable aléatoire réelle dont l’espérance est obtenue en utilisant le théorème
de transfert.
Proposition 16.99 : propriétés de la série génératrice d’une variable aléatoire
Soit X une variable aléatoire à valeurs dans N. Alors :
1. Le rayon R de convergence de la série entière GX est supérieur ou égal à 1.
2. Soit k ∈ N. Alors :
(k)
GX (0)
P ([X = k]) = .
k!
3. Si R > 1, alors X admet un moment d’ordre k pour tout k ∈ N∗ et :
(k)
G0X (1) = E(X), G00X (1) = E(X(X − 1)), GX (1) = E X(X − 1) · · · (X − k + 1) .
Remarque 16.100 :
Grâce à la proposition précédente, on déduit que deux variables aléatoires ayant des fonctions génératrices égales
sur un intervalle ouvert centré en 0 sont équiréparties : GX = GY ⇒ PX = PY . Elles ne sont pas pour autant égales !
Dans le cas où l’on suppose seulement R ≥ 1, les propriétés sur les séries entières vont permettre de généraliser la
proposition précédente.
Proposition 16.101 : fonction génératrice, espérance et variance
Soit X une variable aléatoire à valeurs dans N. Alors :
1. La variable aléatoire X admet une espérance finie si et seulement si la série entière GX est dérivable en 1.
Dans ce cas : G0X (1) = E(X).
2. La variable aléatoire X admet un moment d’ordre deux si et seulement si GX est deux fois dérivable en 1.
Dans ce cas G00X (1) = E(X(X − 1)) et V (X) = G00X (1) + G0X (1) − G0X (1)2 .
Remarque 16.102 :
On peut généraliser ce résultat et montrer, pour tout entier n, que X admet un moment d’ordre n si et seulement
si GX admet une dérivée n-ième à gauche en 1. Dans ce cas :
(n)
E X(X − 1) · · · (X − n + 1) = GX (1).
Remarque 16.111 :
Intuitivement, l’expression de l’espérance peut se comprendre par le fait que, pour n épreuves, le nombre de succès
est approximativement np (n lancers, chacun ayant p comme probabilité de réussite) et que, pour obtenir le premier
n
succès, il faut s’attendre à effectuer épreuves.
np
Proposition 16.112 : absence de mémoire de la loi géométrique
La loi géométrique est la seule loi de probabilité discrète à valeurs dans N∗ et vérifiant :
Remarque 16.113 :
Cette propriété se traduit en disant que la loi géométrique est sans mémoire : le nombre d’épreuves à répéter
jusqu’à l’obtention d’un premier succès est le même quel que soit le nombre d’épreuves effectuées auparavant.
En considérant l’épreuve-type, l’égalité PX>n (X > n + m) = P (X > m) peut se traduire par « la probabilité qu’il
n’y ait pas encore eu de succès à l’instant n + m, sachant qu’il n’y en avait pas eu avant l’instant n, est égale à la
probabilité qu’il n’y ait pas eu de succès à l’instant m ».
Remarque 16.117 :
Soit X une variable aléatoire de loi de Poisson P (λ).
1. Alors X prend des valeurs assez petites, car la probabilité P ([X = k]) est petite pour k grand.
Ceci justifie le fait que la loi de Poisson est souvent appelée « loi des événements rares ».
2. Nous avons effleuré en Terminale (sous la dénomination d’intervalle de fluctuation) le comportement asympto-
tique d’une suite de lois binomiales. Approfondissons la question :
Proposition 16.118 : approximation d’une limite de loi binomiale par une loi de Poisson
Soit (Xn )n∈N une suite de variables aléatoires telle que pour tout n, Xn suit une loi binomiale de paramètres
(n, pn ) : Xn ,→ B(n, pn ).
On suppose que lorsque n tend vers l’infini le produit n · pn des paramètres tend vers une limite λ > 0. Alors :
λk
∀k ∈ N, lim P (Xn = k) = e−λ .
n→+∞ k!
Remarque 16.119 :
Avec les notations de la proposition.
Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ.
Alors lim E(Xn ) = lim npn = λ = E(X) et lim V (Xn ) = lim npn (1 − pn ) = λ = V (X).
n→+∞ n→+∞ n→+∞ n→+∞
Remarque 16.120 :
Soit Xn une loi binomiale B(n, pn ). La variable aléatoire Xn représente le nombre de succès au cours de n expériences
de Bernoulli indépendantes de paramètres respectifs pn .
Or lim npn = λ donc la suite (pn )n tend vers 0 et ainsi la probabilité du succès des expériences de Bernoulli
n→+∞
tend vers 0.
En pratique, l’usage est de considérer l’approximation d’une loi binomiale B(n, p) par une loi de Poisson comme
valable dès que n > 20, p ≤ 0, 1 et np ≤ 5.
On peut donc naturellement se poser la question suivante : mais pourquoi donc approximer une suite de lois
binomiales par une loi de Poisson ? Parce qu’en fait les lois de Poisson sont plus facilement manipulables :
Proposition 16.121 : 1 poisson + 1 poisson = 1 poisson
Soit X et Y deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres respectifs λ et µ.
Alors X + Y suit une loi de Poisson de paramètre λ + µ.
Remarque 16.122 :
Lorsque X et Y sont deux variables aléatoires discrètes réelles à valeurs dans N, la loi de la variable Z = X + Y ,
à valeurs également dans N, s’obtient de la même manière que dans la démonstration ci-dessus, en écrivant :
k
X
P (Z = k) = P ([X = i] ∩ [Y = k − i])
i=0
EPCC : exercices 95, 96, 97, 98, 99, 100, 102, 103, 104, 106, 108, 109, 110, 111.
Convexité
Dans ce chapitre E est un R-espace vectoriel : le corps de base n’est pas quelconque.
Encore plus que dans les autres chapitres, il est recommandé de s’appuyer sur des dessins !
D = {(x, y, z) ∈ R3 ; ax + by + cz = d ∧ a0 x + b0 y + c0 z = d0 }
D = {(x, y, z) ∈ R3 ; ax + by + cz = 0 ∧ a0 x + b0 y + c0 z = 0}.
Remarque 17.3 :
195
17.1. SOUS-ESPACES AFFINES MP 2020-21
1. Une bonne partie de cette section repose sur l’ambigüité suivante : en fait les vecteurs sont des points, et
réciproquement !
2. L’ensemble vide n’est pas un sous-espace affine.
−−→
3. Lorsque B et C sont dans F on note BC pour C −B ; c’est un vecteur de F . (En effet si B = A+ −
→ et C = A+ −
u1
→
u 2
−
→ −
→
avec (u1 , u2 ) ∈ F 2 alors C − B = A + u2 − (A + u1 ) = u2 − u1 ∈ F .)
4. Par convention les lettres minuscules désignent les vecteurs de F et les lettres majuscules les points de F.
5. Lorsqu’on considère le point 0E on le note souvent O.
17.1.2 Translations
Définition 17.7 : translation
Soit →
−u ∈ E. On appelle translation de vecteur →
− →
− 7 →
u : E → E, x →
u l’application t→
−
−
x +→
−
u.
On note T l’ensemble des translations de E.
Proposition 17.8 : propriétés immédiates
1. t→
− = IdE .
0
2. Pour tout (→
−
u,→
−
v ) ∈ E 2 on a : t→
u ◦ t→
− v = t→
− − v.
u +→
−
→
−
3. Pour tout u ∈ E l’application t→
−u est bijective de réciproque t−→
u.
−
Exemple 17.13 :
Dans l’espace usuel l’intersection d’une droite et d’un plan, de deux droites, de deux plans, est soit vide, soit un
singleton, soit une droite, soit un plan.
Définition 17.14 : parallélisme
Soit F1 et F2 deux sous-espaces affines de E de directions respectives F1 et F2 .
1. On dit que F1 est parallèle à F2 lorsque F1 ⊂ F2 .
2. On dit que F1 et F2 sont parallèles lorsque F1 = F2 .
Exemple 17.15 :
1. Une droite peut être parallèle à un plan, mais un plan ne peut pas être parallèle à une droite.
2. Tout sous-espace affine et sa direction sont parallèles (exemple des droites du plan).
3. Les plans affines d’équation x + y + z = 10 et 2x + 2y + 2z = 3 sont parallèles car ils ont pour direction commune
le plan vectoriel d’équation x + y + z = 0.
17.2 Barycentre
17.2.1 Barycentre d’un système de points pondérés
Définition 17.19 : famille de points pondérés
On appelle point pondéré (A, α) un point de E × R. Le réel α est appelé coefficient ou masse du point pondéré
(A, α).
Définition 17.20 : barycentre
Xn
Soit (Ai , αi ) une famille finie de points pondérés de E dont la somme des coefficients αi est non nulle.
1≤i≤n
i=1
On appelle barycentre de la famille (Ai , αi ) le point pondéré G de E défini par :
1≤i≤n
n
X
αi Ai
i=1
G = n .
X
αi
i=1
n
1X
Lorsque tous les αi sont égaux, on parle d’isobarycentre : G = Ai .
n i=1
Remarque 17.21 :
En notation affine, la relation définissant le barycentre G de la famille (Ai , αi )
1≤i≤n
n
X −−→
αi OAi
−−→ i=1
OG = n
X
αi
i=1
Exemple 17.22 :
Avant tout, comme dans tous les chapitres de géométrie il convient de faire un dessin !
• Soit A et B deux points distincts.
−→ −−→
−−→ 1 · OA + 1 · OB 1 −→ −−→
? L’isobarycentre de (A, B) est le milieu du segment [AB]. En effet OG = = (OA + OB).
1+1 2
S+B
? Le symétrique S de B par rapport à A est défini par l’équation A = , soit 2A = G + B, ou encore
2
G = 2A − B : c’est donc le barycentre du système {(A, 2), (B, −1)}.
• Soit A, B, C trois points non alignés et G leur isobarycentre :
−−→ 1 −→ −−→ −−→ −−→ −→ −−→ −−→ −→ −−→ −−→ → −
OG = (OA + OB + OC) ⇐⇒ 3OG = OA + OB + OC ⇐⇒ GA + GB + GC = 0 ,
3
ainsi G est le point de concours des trois médianes.
donc
−−→ −−→ −−→ →
−
(1 − x − y)M A + xM B + y M C = 0
d’où M est le barycentre du système (A, 1 − x − y), (B, x), (C, y) .
Définition 17.26 : coordonnées barycentriques
Le triplet (1 − x − y, x, y) constitue les coordonnées barycentriques de M dans la base affine (A, B, C).
Remarque 17.27 :
Bien entendu, on généralise les notions de base affine, repère affine et coordonnées barycentriques lorsqu’on a une
famille de n + 1 points dans un espace vectoriel réel de dimension n.
Proposition 17.28 : sous-espace affine engendré par une famille finie de points
Soit (Ai )1≤i≤n une famille finie de points de E. Alors l’ensemble des barycentres de ces points affectés de coefficients
quelconques de somme non nulle est le plus petit sous-espace affine contenant tous ces points.
Exemple 17.29 :
droites et plans affines
• Soit A et B deux points distincts de E. Alors la droite (AB) est l’ensemble des barycentres de {(A, α), (B, 1−α)},
où α décrit R :
(AB) = {M ∈ E ; ∃α ∈ R, M = αA + (1 − α)B}.
En effet
−−→ −−→
M = Bary {(A, α), (B, 1 − α)} ⇐⇒ M = αA + (1 − α)B ⇐⇒ M − B = α(A − B) ⇐⇒ BM = αBA.
• De même, le plan (ABC) passant par trois points non alignés A, B et C est l’ensemble des barycentres du
système {(A, α), (B, β), (C, 1 − α − β)}, où α et β décrivent R.
Remarque 17.32 :
Si E = R, on retrouve la définition usuelle d’un segment.
Définition 17.33 : partie convexe
Une partie C de E est convexe lorsqu’elle contient tous les segments d’extrémités dans C :
∀(x, y) ∈ C 2 , [x, y] ⊂ C.
Remarque 17.34 :
Ceci signifie que C est stable par barycentration à coefficients positifs de deux points.
Exemple 17.35 :
1. Une très jolie démonstration utilisant la propriété de la borne supérieure dans R et un examen de (neuf) cas
permet de démontrer que : les ensembles convexes de R sont les intervalles de R.
Remarque 17.37 :
La réunion d’ensembles convexes n’est pas convexe en général.
Considérer par exemple [1, 2] ∪ [3, 4], non-convexe alors que [1, 2] et [3, 4] le sont.
Théorème 17.38 : caractérisation de la convexité par la stabilité par barycentration à coeff. positifs
Une partie C du R-espace vectoriel E est convexe si et seulement si elle est stable par barycentration à coefficients
positifs, en d’autres termes si et seulement si le barycentre de toute famille finie (xi )1≤i≤n d’éléments de C pondérés
X n
par des ai ≥ 0 avec ai > 0, appartient à C.
i=1
Remarque 17.40 :
Ceci signifie que tous les points de l’arc « M1 M2 » sont situés sous la corde [M1 M2 ] :
Exemple 17.41 :
Les fonctions affines, la fonction carré x 7→ x2 , la fonction x 7→ |x|.
Exemple 17.51 :
∀x ∈ R, ex ≥ 1 + x et ∀x > −1, ln(1 + x) ≤ x.
De cette inégalité découlent de multiples autres fournissant autant d’exercices d’oraux. . . Nous verrons des illustra-
tions dans la sous-section suivante.
Exemple 17.55 :
1. Démontrer que : ∀(a, b, c) ∈ R3+ , a3 + b3 + c3 ≥ 3abc.
Inégalité arithmético-géométrique avec (x1 , x2 , x3 ) = (a3 , b3 , c3 ).
2. Démontrer que : ∀(a, b, c) ∈ R3+ , (a + b + c)3 ≥ 27abc.
Inégalité arithmético-géométrique avec (x1 , x2 , x3 ) = (a, b, c) puis élevée au cube.
√ n+1
3. Démontrer que : ∀n ∈ N∗ , n n! ≤ .
2
Inégalité arithmético-géométrique avec (x1 , . . . , xn ) = (1, . . . , n).
n n
!1/p n
!1/q
X X X
ai bi ≤ api bqi .
i=1 i=1 i=1
Remarque 17.58 :
n n
!1/2 n
!1/2
X X X
ai bi ≤ a2i b2i .
i=1 i=1 i=1
a : I → L(E)
t 7→ a(t)
x : I → E
t 7 → x(t)
I → E
t 7→ a(t) (x(t))
où A(t) est la matrice (carrée) représentant l’endomorphisme a(t), et B(t) la matrice (unicolonne) représentant le
vecteur b(t).
Remarque 18.2 :
cas particulier des équations scalaires
205
18.1. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE 1 MP 2020-21
Si E = K, l’équation différentielle est une équation scalaire. Vous l’avez étudiée en Première Année. Les solutions
sont les fonctions de la forme :
x(t) = x1 (t) + Ceα(t)
où α est une primitive sur I de la fonction a, C une constante, et x1 une solution particulière que l’on peut obtenir
par la méthode de la variation de la constante, c’est-à-dire sous la forme C(t)eα(t) où C est cette fois une fonction
dérivable.
Exemple 18.3 :
1
x0 = y + 1
t
Résoudre le système différentiel : , où x et y sont deux fonctions dérivables sur R∗+ .
y0 = 1 x + 1
t
Il n’y a hélas pas de méthode systématique pour trouver un système fondamental de solutions. On peut chercher des
solutions évidentes, ou sous une forme donnée (polynôme, exponentielle, etc).
On peut en revanche vérifier qu’une famille donnée de n solutions est bien un système fondamental :
Définition 18.10 : wronskien d’une famille de solutions
Pour toute famille (x1 , . . . , xn ) de solutions de l’équation homogène, on appelle wronskien relativement à une base
B de E, l’application W de I dans K définie par :
18.1.5 Cas où la matrice A(t) est diagonalisable dans une base fixe
Supposons que la matrice A(t) est diagonalisable dans une base indépendante de t : il existe une matrice diagonale
D(t) et une matrice inversible P (indépendante de t) telles que :
∀t ∈ I, A(t) = P D(t)P −1 .
L’équation différentielle homogène s’écrit donc : X 0 (t) = P D(t)P −1 X(t). Posons U (t) = P −1 X(t) ; on a alors U 0 (t) =
P −1 X 0 (t) (grâce au fait que P est constante). Le vecteur U (t) est solution de l’équation différentielle : U 0 (t) = D(t)U (t),
qui se ramène à un système de n équations scalaires :
0
u1 (t) = d1 (t)u1 (t)
···
0
un (t) = dn (t)un (t)
Exemple 18.12 :
Résoudre le système : (
x0 (t) = (t − 2) x(t) − (t − 1) y(t)
y 0 (t) = 2(t − 1) x(t) − (2t − 1) y(t)
! !
x0 0
Tracer les solutions qui passent en t0 = 0 par le point = où y0 ∈ [[−5, 5]].
y0 y0
Ce résultat permet d’obtenir les fonctions c0i , d’où les fonctions ci à une constante près (les mêmes constantes
qui permettent de décrire l’ensemble des solutions de l’équation homogène). Deux méthodes : ou bien on oublie ces
constantes pour écrire une solution particulière, et on ajoute ensuite l’ensemble des solutions de l’équation homogène ;
ou bien on tient compte de ces constantes d’intégration et on obtient directement l’ensemble des solutions.
Exemple 18.15 :
Résoudre le système différentiel :
x0 (t) = x(t) − y(t) + t
t
y 0 (t) = x(t) + y(t) + t
t
! !
x1 (t) t cos t
On remarquera que le système homogène a deux solutions évidentes : t 7→ = et t 7→
y1 (t) t sin t
! !
x2 (t) −t sin t
= .
y2 (t) t cos t
∀t ∈ R, x0 (t) = a (x(t)) .
∀t ∈ I, X 0 (t) = AX(t)
Exemple 18.18 : (
x0 (t) = x(t) cos θ − y(t) sin θ
Résoudre le système pour θ ∈ R fixé.
y 0 (t) = x(t) sin θ + y(t) cos θ
Un système fondamental de solutions de l’équation homogène est donc constitué des fonctions t 7→ eλi t ei , où (e1 , . . . , en )
est la base de vecteurs propres. L’ensemble des solutions de l’équation homogène est l’ensemble des fonctions x de la
forme :
X n
x(t) = ci eλi t ei .
i=1
soit :
X0 = A X + B
! ! !
x 0 1 0
avec X = 0
, A= et B = .
x β(t) α(t) γ(t)
On est donc ramené à une équation différentielle linéaire du premier ordre dans K2 . Les résultats obtenus pour ce
type d’équation s’appliquent :
• L’ensemble des solutions sur I est un espace affine de dimension 2.
• Une famille (x1 , x2 ) de solutions
de l’équation
homogène est un système fondamental de solutions si et seulement
x (t) x (t)
1 2
si le wronskien : W(t) = 0 est non nul en tout point de I (il suffit qu’il le soit en au moins un
x1 (t) x02 (t)
point).
• Le théorème de Cauchy-Lipschitz linéaire s’applique : pour tout t0 ∈ I, il existe une solution et une seule sur I
vérifiant une condition initiale du type : ! !
x(t0 ) x0
=
x0 (t0 ) x00
Exemple 18.21 :
Considérons l’équation différentielle : t2 x00 − 2tx0 + 2x = 2t2 . Chercher des solutions de l’équation homogène sur
∗
R sous la forme t 7→ tn avec n ∈ N. En déduire l’ensemble des solutions de l’équation.
18.3.3 Cas où l’on connaît une solution de l’équation homogène (méthode d’abaisse-
ment de l’ordre)
Considérons l’équation différentielle :
Supposons connue une solution x0 de l’équation homogène sur un intervalle I où la fonction a ne s’annule pas. On
peut chercher une solution quelconque de l’équation complète sous la forme : x(t) = z(t)x0 (t). On a alors :
x(t) = z(t)x0 (t)
x0 (t) = z 0 (t)x0 (t) + z(t)x00 (t)
00
x (t) = z 00 (t)x0 (t) + 2z 0 (t)x00 (t) + z(t)x000 (t)
D’où :
a(t)x00 (t) + b(t)x0 (t) + c(t)x(t) =
a(t)x0 (t)z 00 (t) + (2a(t)x00 (t) + b(t)x0 (t)) z 0 (t) + (a(t)x000 (t) + b(t)x00 (t) + c(t)x0 (t)) z(t)
Comme a(t)x000 (t) + b(t)x00 (t) + c(t)x0 (t) = 0, l’équation différentielle devient :
Calcul différentiel
Dans tout le chapitre : soit E et F deux espaces vectoriels normés réels de dimension finie, et f une fonction définie
sur un ouvert U de E à valeurs dans F .
Exemple 19.5 :
Déterminer un développement limité à l’ordre 1 de l’application f : Mn (R) → Mn (R) définie par f (M ) = M 2 .
Remarque 19.6 :
1. Insistons sur le fait qu’une fonction différentiable en a est automatiquement continue en a.
2. Bien entendu, si une application différentiable sur un ouvert est constante alors sa différentielle est nulle.
213
19.1. APPLICATIONS DIFFÉRENTIABLES MP 2020-21
Alors : f est différentiable en a si et seulement si elle est dérivable en a. Dans ce cas dfa : R → F , t 7→ t × f 0 (a),
et en particulier dfa (1) = f 0 (a).
f (a + tu) − f (a)
lim = Du f (a).
t→0 t
Remarque 19.10 :
La réciproque est fausse : une fonction peut admettre une dérivée selon n’importe quel vecteur sans pour autant
être différentiable (voir exercices).
∂f
Ceci nous donne une application = D ei f : U → F .
∂xi
Théorème 19.12 : expression de la différentielle à l’aide des dérivées partielles
Soit f une fonction de E dans F définie sur un ouvert U , et a un point de U .
Si f est différentiable en a, alors pour toute base (e1 , . . . , en ) de E, f admet des dérivées partielles et f est continue.
n
P
De plus, pour tout vecteur u = ui ei de E, la dérivée de f selon u est donnée par :
i=1
n
X
Du f (a) = ui Di f (a).
i=1
Fixons (ei )i une base orthonormée de E. Notons (dxi )i = (pi )i sa base duale, c’est-à-dire telle que dxi (ej ) = δi,j
(symbole de Kronecker). Il vient dxi (u) = ui , d’où :
n n
X X ∂f
dfa = Di f (a) dxi = (a) dxi .
i=1 i=1
∂xi
∂f ∂f ∂f
dfa = (a) dx + (a) dy + (a) dz.
∂x ∂y ∂z
∂f
Par ailleurs, gardons toujours à l’esprit que dans le cas général (a) = Dei f (a).
∂xi
2. Si E et F sont de dimension finie, alors toute application bilinéaire de E × F dans G est continue.
2. Soit B : F 2 → G une application bilinéaire à valeurs dans un R-espace vectoriel G, et f , g deux applications
définies et différentiables sur U , à valeurs dans F .
Alors B(f, g) est différentiable sur U et
Exemple 19.20 :
avec : x = ρ cos θ, y = ρ sin θ. On a : F = f ◦ ϕ, où ϕ(ρ, θ) = (ρ cos θ, ρ sin θ). D’où J(F ) = J(f ◦ ϕ) = J(f ) × J(ϕ)
c’est-à-dire :
∂x ∂x
!
∂F ∂F ∂f ∂f ∂ρ ∂θ ∂f ∂f cos θ −ρ sin θ
= ∂y ∂y =
∂ρ ∂θ ∂x ∂y ∂x ∂y sin θ ρ cos θ
∂ρ ∂θ
soit :
∂F ∂f ∂f
= cos θ + sin θ
∂ρ ∂x ∂y
∂F ∂f ∂f
= − ρ sin θ + ρ cos θ
∂θ ∂x ∂y
Nous aurons besoin du résultat suivant pour définir la circulation d’un champ de vecteurs le long d’un arc :
Proposition 19.21 : dérivée le long d’un arc
Fixons E et F deux espaces vectoriels euclidiens. Soit (I, γ) un arc paramétré de classe C 1 sur un intervalle I de
R et à valeurs dans un ouvert U de E. Considérons f une fonction différentiable sur U et à valeurs dans F .
Alors la fonction f ◦ γ : I → U → F est dérivable sur I et :
Considérons Γ = ([a, b], γ) un arc paramétré de classe C 1 (avec γ à valeurs dans U ), orienté et dont tous les points
sont réguliers.
Définition 19.31 : intégrale curviligne
Z b
L’intégrale ω(γ(t)) γ 0 (t) dt est appelée intégrale curviligne ou circulation de la forme différentielle ω le long
I a
de γ, notée ω(γ)dγ.
Γ
Remarque 19.32 :
Z b
1. En fait l’intégrale ω(γ(t)) · γ 0 (t)dt ne dépend pas du paramétrage ([a, b], γ) de l’arc Γ.
a
C’est un résultat hors-programme assez technique à démontrer.
2. Cet outil est utile en Physique.
I
Méthode : pour calculer l’intégrale curviligne ω avec ω = P dx + Qdy, on choisira un paramétrage de
( Γ
x = x(t)
Γ. Par exemple en dimension 2 : , et on calculera :
y = y(t)
Z b
P x(t), y(t) x0 (t) + Q x(t), y(t) y 0 (t) dt.
I =
a
Exemple 19.33 :
x(t) = cos t
3
Soit C le cercle de R paramétré par γ(t) : y(t) = sin t avec t ∈ [0, 2π]. Calculer la circulation sur C de la
z(t) = 0
y x
forme différentielle ω définie par ω(x, y, z) = − 2 , , 0 .
x + y 2 x2 + y 2
Remarque 19.34 :
xdy − ydx xdy − ydx
Z
ω(γ) · dγ = donc on écrira aussi = 2π.
x2 + y 2 2
C x +y
2
Corollaire 19.36 : (de la prop. 19.21) caractérisation des fonctions différentiables constantes
Soit U un ouvert connexe par arcs de classe C 1 de E, et f une application de classe C 1 sur U et à valeurs dans R.
Alors : f est constante sur U si et seulement si sa différentielle sur U est nulle.
Remarque 19.37 :
1. Attention, il faut que U soit connexe par arcs ! Pensez à f = χR+ restreinte à R∗ , valant 1 sur R∗+ et 0 sur R∗− :
sa différentielle est nulle mais f n’est pas constante pour autant.
2. Si U est un ouvert quelconque, alors : une fonction de classe C 1 dont la différentielle sur U est nulle est constante
sur chaque composante connexe par arcs de classe C 1 de U .
3. On rappelle que si U est convexe alors U est étoilée par rapport à un de ses points, d’où U est connexe par arcs
de classe C 1 .
Afin d’examiner l’expression du gradient en coordonnées polaires, détaillons les dérivées partielles en coordonnées
polaires :
Proposition 19.38 : dérivées partielles en coordonnées polaires
Nous avons :
∂ ∂ sin θ ∂ ∂ ∂ cos θ ∂
= cos θ − et = sin θ + .
∂x ∂r r ∂θ ∂y ∂r r ∂θ
∂F 1 ∂F
∇fa = u(θ) + v(θ).
∂r r ∂θ
3. Lorsque f présente un minimum ou un maximum local (respectivement global) en a, on dit que f présente un
extremum local (respectivement global) en a.
Remarque 19.42 :
erreur classique
La réciproque est fausse : dfa peut s’annuler en un point a sans que f admette un extremum local en a.
Quand bien même chaque application partielle présenterait un extremum local (même tous de même sens), il n’en
serait pas nécessairement de même pour f .
Exemple 19.43 :
Pour f (x, y) = y(y − x2 ), on df(x,y) (h, k) = −2xyh + (2y − x2 )k. En particulier pour tout (h, k) ∈ R2 \ {(0, 0)}, on
a df(0,0) (h, k) = 0.
2 x4
Or f (0, 0) = 0, f (x, x2 ) = − < 0 pour x 6= 0 et f (0, y) = y 2 > 0 pour y 6= 0, donc f ne présente pas d’extremum
4
en (0, 0).
Définition 19.44 : point critique
Un point a où dfa = 0 est appelé point critique.
Remarque 19.45 :
1. Le théorème indique seulement qu’il faut chercher les éventuels extrema locaux parmi les points critiques.
2. La condition dfa = 0 équivaut à ∇fa = 0 : les points critiques sont ceux où le vecteur gradient s’annule.
Remarque 19.46 :
Attention ! Bien vérifier que U est ouvert.
Exemple 19.47 : (
U = B(0, r) → R
La fonction f : présente un maximum local et même global en chaque point de la
(x, y) 7→ x2 + y 2
sphère de rayon r mais les dérivées partielles ne s’y annulent pas !
Méthode pour la recherche des points de A où f présente un extremum local
1. On se place sur un ouvert où f est de classe C 1 (éventuellement, on coupe l’ensemble considéré en frontière ∪
intérieur).
2. On cherche les points de l’ouvert où le gradient s’annule. Par définition, ces points sont appelés les points critiques.
3. Parmi les points critiques déterminés précédemment, on cherche ceux pour lesquels f présente effectivement un
extremum.
Exemple 19.48 :
Déterminer les éventuels extrema sur R2 de la fonction f : (x, y) 7→ 5x2 + 2y 2 − 2xy − 2x − 8y.
2 2 ∂2f ∂2f
Dj,i f (a) = Di,j f (a) c’est-à-dire (a) = (a).
∂xj ∂xi ∂xi ∂xj
19.5.2 Algèbre C k (U )
Définition 19.50 : fonction de classe C k
La fonction f est dite de classe C k sur U si elle admet en tout point de U toutes ses dérivées partielles d’ordre k
et qu’elles sont continues sur U .
Elle est dite de classe C ∞ sur U si elle admet en tout point de U toutes ses dérivées partielles à tout ordre.
Proposition 19.51 : structure de C k (U, F ) et de C k (U )
Soit k ∈ N ∪ {∞}. Alors :
1. L’ensemble des fonctions de classe C k de U dans F est un espace vectoriel, noté C k (U, F ).
2. Si F = R, alors l’espace vectoriel C k (U, R) possède de plus une structure d’anneau, donc de R-algèbre, notée
C k (U ).
3. La composition d’applications de classe C k est de classe C k .
Ces résultats nous aideront pour résoudre des équations aux dérivées partielles, cf. les TD.
∂2f
∀(x, y) ∈ R2 , = 0.
∂x∂y
Exemple 19.53 :
équation des cordes vibrantes –
Considérons une corde tendue et soumise à une force, par exemple une corde de guitare écartée de sa position
d’équilibre puis relâchée. On suppose la corde horizontale à l’équilibre.
Un point de la corde dont la position à l’équilibre est (x, 0) se trouve à l’instant t en (x, z(x, t)) et l’équation
∂2z 1 ∂2z
régissant la déformation de la corde s’écrit : 2
(x, t) − 2 2 = 0, où c > 0 est une constante dépendant de la masse
∂x c ∂t
linéique de la corde et de la force avec laquelle elle est tendue.
Résoudre cette équation aux dérivées partielles en cherchant toutes les applications z sous la forme d’une application
de classe C 2 de R2 dans R, à l’aide du changement de variables défini par X = x + ct, Y = x − ct.
En dérivant, on obtient :
∂F ∂F
x0 (t) x(t), y(t) + y 0 (t)
∀t ∈ I, x(t), y(t) = 0.
∂x ∂y
On en déduit que :
Proposition 19.54 : pour une courbe plane, la vitesse est orthogonale au gradient
Considérons une courbe plane définie par une équation cartésienne F (x, y) = 0, avec F de classe C 1 . Soit (U, f ) un
paramétrage de cette surface, où f ∈ C 1 (U, R2 ) et U ouvert de R.
Alors le vecteur vitesse f 0 (t) = x0 (t), y 0 (t) est orthogonal au vecteur gradient de F au point f (t).
x3 − x2 y + 2x2 + y 2 x − y 3 + 2y 2 − 1 = 0.
19.6.2 Plan tangent à une surface paramétrée par x(u, v), y(u, v), z(u, v)
Soit E un espace vectoriel normé de dimension 3.
Définition 19.58 : nappe paramétrée
On appelle nappe paramétrée de E un couple (U, f ) où U est un ouvert de R2 et f une application de U dans E.
La nappe est dite de classe C k lorsque f est de classe C k .
L’ensemble f (U ) des points de E atteints est appelé support de la nappe, ou surface paramétrée.
Si E est muni d’un repère (O, i, j, k), la nappe paramétrée est donnée par les 3 fonctions coordonnées x, y, z :
L’application f est de classe C k si et seulement si les trois fonctions x, y, z sont de classe C k ; on a alors pour tout
p ∈ [[0, k]] : p p p p
∂ f (u, v) = ∂ x (u, v) i + ∂ y (u, v) j + ∂ z (u, v) k
∂u p ∂u p ∂u p ∂up
p p p
∂ f ∂ x ∂ y ∂pz
(u, v) = (u, v) i + (u, v) j + (u, v) k
∂v p ∂v p ∂v p ∂v p
Exemple 19.60 :
Cherchons le plan tangent au tore défini par :
x(θ, ϕ) = (R + r cos θ) cos ϕ
y(θ, ϕ) = (R + r cos θ) sin ϕ , avec R et r fixés.
z(θ, ϕ) = r sin θ
19.6.3 Plan tangent à une surface définie par une équation implicite F (x, y, z) = 0
Une surface de E peut aussi être définie par une équation cartésienne F (x, y, z) = 0 (dite équation implicite), où
F est une fonction de classe C 1 définie sur une partie A de R3 à valeurs dans R.
Nous admettrons qu’une telle surface possède au moins un paramétrage (U, f ) de classe C 1 :
On a alors :
∀(u, v) ∈ U, F x(u, v), y(u, v), z(u, v) = 0.
En dérivant par rapport à u et v, on obtient :
∂F ∂x ∂F ∂y ∂F ∂z
x, y, z (u, v) + x, y, z (u, v) + x, y, z (u, v) = 0,
∂x ∂u ∂y ∂u ∂z ∂u
∂F ∂x ∂F ∂y ∂F ∂z
x, y, z (u, v) + x, y, z (u, v) + x, y, z (u, v) = 0.
∂x ∂v ∂y ∂v ∂z ∂v
On en déduit que :
Proposition 19.61 : pour une surface de l’espace, le gradient est orthogonal à la vitesse
Considérons une surface définie par une équation cartésienne F (x, y, z) = 0, avec F de classe C 1 . Soit (U, f ) un
paramétrage de cette surface, où f ∈ C 1 (U, R3 ) et U ouvert de R2 .
∂f ∂f
Alors le vecteur gradient de F au point f (u, v) est orthogonal aux deux vecteurs (u, v) et (u, v).
∂u ∂v
Définition 19.62 : point régulier pour la représentation implicite
Le point est dit régulier pour la représentation implicite lorsque le vecteur gradF est non-nul en ce point.
Pour un point régulier pour les deux représentations (paramétrique et implicite), on obtient donc :
Proposition 19.63 : pour une surface de l’espace, équation du plan tangent en un point
Une équation du plan tangent au point M0 (x0 , y0 , z0 ) à la surface définie par F (x, y, z) = 0 est :
∂F ∂F ∂F
X − x0 x0 , y0 , z0 + Y − y0 x0 , y0 , z0 + Z − z0 x0 , y0 , z0 = 0.
∂x ∂y ∂z
20.1 Compacité
20.1.1 Théorème de Bolzano-Weierstrass
Théorème 20.1 : Bolzano-Weierstrass
Toute suite bornée d’un espace vectoriel normé de dimension finie possède une valeur d’adhérence.
Exemple 20.7 :
227
20.2. NOTIONS DE CONNEXITÉ PAR ARCS MP 2020-21
Remarque 20.8 :
Si E est de dimension infinie alors une partie fermée bornée n’est pas nécessairement compacte. Considérons par
Xn
exemple K[X] muni de la norme définie pour P = ak X k par kP k = max k |ak |.
k=0
• L’ensemble des monômes unitaires A = {X n ; n ∈ N} est fermé car si une suite de tels monômes converge, alors
elle est stationnaire donc sa limite est dans A.
• L’ensemble A est borné car kX n k = 1 pour tout n.
• Mais A n’est pas compact car de la suite (X n )n∈N∗ on ne peut extraire aucune suite convergente.
Remarque 20.12 :
En particulier si K est un segment de R, on retrouve un théorème vu en Première Année : toute application
continue sur un segment est bornée, et atteint ses bornes.
Plus généralement :
Corollaire 20.13 : application continue sur un compact et à valeurs vectorielles
Soit E et F deux espaces vectoriels normés. Toute application continue sur un compact de E et à valeurs dans F
est bornée, et la borne supérieure de sa norme est atteinte.
2. Une partie A de E est dite convexe lorsque pour tous points x et y de A, le segment [x, y] est inclus dans A.
Exemple 20.16 :
1. Un sous-espace vectoriel est convexe.
2. Une boule ouverte ou fermée est convexe.
3. Les parties convexes de R sont les intervalles.
4. Les bananes ne sont pas convexes.
5. L’ensemble C privé d’un ensemble A non vide n’est pas convexe.
Nous avons étudié plus en détail cette notion de convexité dans le chapitre 17 (convexité).
Exemple 20.22 :
1. Une sphère est connexe par arcs.
EPCC : aucun !