Académique Documents
Professionnel Documents
Culture Documents
1
TABLE DES MATIÈRES MP 2022-23
4 Topologie 45
4.1 Notions topologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.1 Voisinages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.2 Ouverts et fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.3 Adhérence d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1.4 Caractérisation séquentielle de l’adhérence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.5 Intérieur d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.6 Liens entre adhérence et intérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.7 Frontière d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.8 Topologie induite sur une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2 Étude locale d’une application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.1 Limite en un point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.2 Opérations sur les limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2.3 Caractérisation séquentielle de l’existence d’une limite d’une fonction . . . . . . . . . . . . . . . 51
4.2.4 Relations de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.5 Applications continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.6 Image réciproque d’un ouvert ou d’un fermé par une application continue . . . . . . . . . . . . 52
4.2.7 Homéomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.8 Continuité uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3 Applications linéaires continues, bilinéaires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3.1 Caractérisation des applications linéaires continues . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3.2 Caractérisation de la continuité d’une application bilinéaire . . . . . . . . . . . . . . . . . . . . 54
4.3.3 Norme d’une application linéaire continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3.4 Algèbre normée unitaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5 Éléments propres 57
5.1 Somme, somme directe d’une famille finie de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . 57
5.1.1 Somme de p sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.2 Somme directe de p sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.3 Projecteurs associés à une somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.1.4 Cas de la dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.1.5 Décomposition d’une application linéaire sur une somme directe . . . . . . . . . . . . . . . . . 59
5.2 Calcul matriciel par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.1 Matrice définie par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.2 Opérations par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.3 Déterminant d’une matrice triangulaire par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.3 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.3.1 Sous-espace vectoriel stable par un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.3.2 Caractérisation matricielle de la stabilité d’un SEV . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.3.3 Droite stable par un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.4 Polynômes d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.4.1 Morphisme P 7→ P (u) ; noyau et image de ce morphisme . . . . . . . . . . . . . . . . . . . . . . 62
5.4.2 Polynôme caractéristique d’un endomorphisme d’un EV de dimension finie . . . . . . . . . . . 64
5.4.3 Théorème de décomposition des noyaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.5 Éléments propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.5.1 Valeurs propres et vecteurs propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 65
5.5.2 Sous-espaces propres associés à des valeurs propres distinctes . . . . . . . . . . . . . . . . . . . 66
5.5.3 Valeurs propres et polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.5.4 Polynôme caractéristique et sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.5.5 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
17 Convexité 207
17.1 Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
17.1.1 Définitions et propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
17.1.2 Translations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
17.1.3 Intersection et paralléllisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
17.2 Ensembles convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
17.3 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
17.3.1 Définition et interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
17.3.2 Caractérisation géométrique de la convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
17.3.3 Caractérisation des fonctions convexes dérivables . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.3.4 Position de la courbe par rapport à la tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.4 Applications : inégalités de convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.4.1 L’inégalité de Jensen ou de convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.4.2 Comparaison des moyennes arithmétique, géométrique et quadratique . . . . . . . . . . . . . . 212
17.4.3 Inégalité de Hölder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
17.4.4 Inégalité de Minkowski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
1.1.2 Associativité
Définition 1.4 : LCI associative
La LCI ∗ est associative lorsque : ∀(x, y, z) ∈ E 3 , (x ∗ y) ∗ z = x ∗ (y ∗ z).
Conséquence :
Lorsque ∗ est associative, l’écriture x ∗ y ∗ z a un sens, elle n’est plus ambigüe. De même pour x1 ∗ · · · ∗ xn = ∗ni=1xi.
Exemple 1.5 :
1. L’application ∪ : P(E)2 → P(E), (X, Y ) 7→ X ∪ Y , est une LCI associative.
En effet ∀(X, Y, Z) ∈ P(E)3 , (X ∪ Y ) ∪ Z = X ∪ (Y ∪ Z).
x+y
2. L’application ∗ : Q2 → Q, (x, y) 7→ , est une LCI non associative car, pour (x, y, z) ∈ Q3 :
2
x+y
(x ∗ y) + z 2 +z x + y + 2z x + (y ∗ z) x + y+z
2 2x + y + z
(x ∗ y) ∗ z = = = , x ∗ (y ∗ z) = = = .
2 2 4 2 2 4
11
1.1. LOI DE COMPOSITION INTERNE (RAPPELS DE SUP) MP 2022-23
1.1.3 Commutativité
Définition 1.6 : LCI commutative
La LCI ∗ est commutative lorsque : ∀(x, y) ∈ E 2 , x ∗ y = y ∗ x.
Exemple 1.7 :
1. L’application ∩ : P(E)2 → P(E), (X, Y ) 7→ X ∩ Y , est une LCI commutative.
2. La soustraction dans Z est une LCI non commutative.
Exemple 1.9 :
1. 0 est élément neutre pour la LCI + dans Z.
2. Pour la LCI ∗ : N2 → N, (x, y) 7→ y :
• tout élément x de N est neutre à gauche car ∀y ∈ N, x ∗ y = y ;
• aucun élément y de N n’est neutre à droite, car x ∗ y = x n’est vrai que pour x = y mais pas pour tout x.
3. Pour la LCI ÷ : (R∗ )2 → R∗ , (x, y) 7→ x/y, il n’y a pas de neutre à gauche et 1 est l’unique neutre à droite.
Exemple 1.12 :
1. Reprenons la LCI ∗ sur N définie par x ∗ y = y. Soit a ∈ N.
• Éléments réguliers à gauche.
Soit (x, y) ∈ N2 tel que a ∗ x = a ∗ y ; alors par définition de ∗ on a x = y. Ainsi tout élément a de N est
régulier à gauche pour ∗.
• Éléments réguliers à droite.
Soit (x, y) ∈ N2 tel que x ∗ a = y ∗ a ; alors par définition de ∗ on a x ∗ a = y ∗ a = a mais ceci n’implique
pas que x = y (par exemple si on fixe a priori x 6= x0 ). Donc aucun élément a de N n’est régulier à droite
pour ∗.
2. La multiplication R2 → R, (x, y) 7→ xy, est une LCI commutative et associative. Elle admet pour éléments
réguliers tous les réels non nuls car :
1
Attention : L’écriture x−1 ne signifie pas inverse au sens des nombres réels ; ainsi n’a en général aucun sens !
x
Remarque 1.15 :
On peut aussi définir les éléments symétrisables à gauche (x ∗ x0 = e) ou à droite (x0 ∗ x = e).
Exemple 1.16 :
1. Pour la LCI définie par x ∗ y = x + y dans Z, l’élément neutre est 0 et tout élément est symétrisable d’inverse
son opposé : ∀x ∈ Z, x + (−x) = (−x) + x = 0.
2. Sur R+ considérons la LCI ∗ définie par x ∗ y = x2 + y 2 .
p
(c) La loi ∗ admet 0 pour élément neutre. Soit en effet a dans R+ ; alors :
p
∀x ∈ R+ , x ∗ a = x ⇐⇒ ∀x ∈ R+ , x2 + a2 = x ⇐⇒ ∀x ∈ R+ , x2 + a2 = x2 ⇐⇒ a = 0.
(d) Tout élément est régulier pour ∗. Soit en effet a ∈ R+ et (x, x0 ) ∈ R2+ . Alors :
p p
a ∗ x = a ∗ x0 ⇒ a2 + x2 = a2 + x02 ⇒ a2 + x2 = a2 + x02 ⇒ x2 = x02 ⇒ x = x0 .
(e) Le
√ seul élément symétrisable est 0 et son inverse est 0. Soit en effet (x, x0 ) ∈ R2+ tel que x ∗ x0 = 0 ; alors
x + x = 0 donc x = x = 0.
2 02 0
1.1.7 Distributivité
On considère deux LCI ∗ et > (« truc ») sur E.
Définition 1.18 : LCI distributive
1. On dit que > est distributive à gauche (resp. à droite) sur ∗ (ou par rapport à ∗) lorsque :
2. On dit que > est distributive sur ∗ lorsque > est distributive à gauche et à droite sur ∗.
Exemple 1.19 :
1. La multiplication est distributive par rapport à l’addition dans C.
2. La loi ∪ est distributive par rapport à ∩ dans P(E) et la loi ∩ est distributive par rapport à ∪ dans P(E). En
effet pour tout (A, B, C) ∈ P(E)3 on a A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) et A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C).
Attention : on a bien an am = an+m pour tout (m, n) ∈ Z2 , mais par contre l’égalité am bm = (ab)m n’est vraie
que lorsque a et b commutent !
Remarque 1.22 :
premières propriétés
Remarque 1.24 :
On définit sans détour le produit d’un nombre fini de groupes.
Remarque 1.31 :
Attention, la réunion de sous-groupes (même de seulement deux) n’est pas en général un sous-groupe. Voir exercices.
x ∈ G ; ∃n ∈ N∗ , ∃(α1 , . . . , αn ) ∈ (A ∪ A−1 )n , x = α1 ∗ · · · ∗ αn .
hAi =
En d’autres termes hAi est l’ensemble des éléments de G qui sont des produits finis d’éléments de A ou d’inverses
d’éléments de A.
Exemple 1.36 :
1. (Z, +) est monogène, engendré par 1 ou −1.
2. ({±1}, ×) est cyclique, engendré par −1.
3. L’ensemble (Z/nZ, +) des classes modulo n est un groupe cyclique, engendré par la classe de n’importe quel
entier premier à n. Nous reviendrons à cet exemple au paragraphe 1.4.
1. Un morphisme entre E et F est une application f : E → F respectant les structures, c’est-à-dire compatible
avec les lois de E et F .
2. Un endomorphisme de E est un morphisme de E vers E.
Remarque 1.39 :
Cette notion de morphisme sera étendue aux morphismes de groupes, d’anneaux, de corps, d’espaces vectoriels,
d’espaces topologiques. . . C’est une notion incontournable en mathématiques !
Définition 1.40 : morphisme de groupes
1. Un morphisme de groupes est un morphisme entre deux groupes. Plus précisément un morphisme entre les
groupes (G, ∗) et (H, >) est une application f : G → H telle que : ∀(x, y) ∈ G2 , f (x ∗ y) = f (x)>f (y).
On note en général f : (G, ∗) → (H, >) un morphisme entre (G, ∗) et (H, >).
2. De même notion d’endomorphisme de groupe.
Exemple 1.41 :
1. f : (R, +) → (R∗+ , ×), x 7→ ex , est un morphisme de groupes (abéliens).
2. g : (C, +) → (C, +), z 7→ z̄, est un morphisme de groupes (abéliens).
3. Le déterminant det : (GLn (R), ×) → (R∗ , ×) est un morphisme de groupes. (Attention Mn (R) n’est pas un
groupe pour × !)
Im (f ) = f (G) = {y ∈ H ; ∃x ∈ G, y = f (x)}.
Exemple 1.46 :
1. Considérons l’application trace tr : (Mn (R), +) → (R, +), réalisant un morphisme de groupes additifs.
Son noyau Ker ( tr ) = sln (R) est constitué des matrices de trace nulle.
2. Considérons l’application déterminant det : (GLn (R), ×) → (R∗ , ×), réalisant un morphisme de groupes multi-
plicatifs.
Son noyau Ker (det) = SLn (R) est constitué des matrices de déterminant 1, il est appelé groupe spécial linéaire.
3. Considérons la restriction det|O(E) du déterminant au groupe orthogonal O(E) d’un espace vectoriel eucli-
dien E (défini dans l’exemple 1.29). On définit SO(E) = Ker (det|O(E) ) = {f ∈ O(E) ; det(f ) = 1}, appelé
groupe spécial orthogonal de E ; c’est alors un sous-groupe de O(E).
4. La signature ε est un morphisme du groupe Sn des permutations sur l’ensemble {1, . . . , n} muni de la composition
à valeurs dans ({±1}, ×). Son noyau {σ ∈ Sn ; ε(σ) = 1} est de fait un sous-groupe de Sn , appelé groupe alterné.
Exemple 1.49 :
Les groupes (R∗+ , ×) et (R, +) sont isomorphes via ln.
Théorème 1.50 : réciproque d’un isomorphisme de groupes
La bijection réciproque d’un isomorphisme de groupes est elle-même un isomorphisme de groupes.
L’ordre de la permutation σ est le plus petit entier naturel k non nul tel que σ k = Id.
Supposons n ≥ 2. On appelle transposition une permutation qui échange deux éléments distincts et qui laisse les
autres invariants. On la note usuellement (i j). Une transposition est d’ordre 2, elle est son propre inverse : c’est une
involution.
• La composée de deux permutations de même parité est paire. La composition de deux permutations de parités
différentes est impaire.
• Une permutation et son inverse ont même signature.
• L’ensemble des permutations paires est le noyau du morphisme ε.
C’est un sous-groupe de Sn , appelé groupe alterné, noté An .
• Une transposition est une permutation impaire, de signature −1.
• Le produit de k transpositions est de signature (−1)k .
• La décomposition en produit de transpositions peut être utilisée pour déterminer la signature d’une permutation.
Un cycle est une permutation c de [[1, n]] telle qu’il existe (a1 , . . . , ak ) ∈ [[1, n]]k telle que :
• Pour tout i ∈ [[1, k − 1]], c(ai ) = ai+1 .
• c(ak ) = a1 .
• La permutation c laisse invariants les entiers autres que les ai : pour tout j ∈ [[1, n]] \ {a1 , . . . , ak }, c(j) = j.
Ce cycle sera noté c = (a1 a2 · · · ak ). L’entier k est la longueur du cycle c. L’ensemble {a1 , . . . , ak } est le support du
cycle. On démontre enfin que :
Proposition 1.58 : signature d’un cycle
La signature d’un cycle de longueur k est (−1)k−1 . En d’autres termes un cycle de longueur paire est une permu-
tation impaire et un cycle de longueur impaire est une permutation paire.
cl x = cl(x) = x = {y ∈ E ; xRy}.
Exemple 1.60 :
Le parallélisme de droites, l’égalité d’objets, sont deux relations d’équivalence.
Proposition 1.61 : classes d’équivalences et partition d’un ensemble
1. Les classes d’équivalence forment une partition de l’ensemble :
• Aucune classe n’est vide : cl(x) 6= ∅ puisque x ∈ cl(x).
• Deux classes distinctes sont disjointes : si cl(x) 6= cl(y) alors cl(x) ∩ cl(y) = ∅ (démonstration par contrapo-
sée).
De façon équivalente : deux classes sont soit disjointes, soit confondues.
[
• La réunion de toutes les classes est égales à E : pour tout x ∈ E, on a x ∈ cl(x) donc x ∈ cl(y).
y∈E
2. Réciproquement, toute partition définit une relation d’équivalence : « appartenir à la même partie de la parti-
tion » .
Application :
Théorème 1.62 : Lagrange
Dans un groupe fini, le cardinal d’un sous-groupe divise le cardinal du groupe.
1.4.2 Congruence
Soit n ∈ N.
Définition 1.63 : entiers congrus
Deux entiers relatifs a et b sont dits congrus modulo n lorsque a − b ∈ nZ. On écrit a ≡ b [n] ou a = b mod n.
Proposition 1.64 : la relation de congruence modulo n
La relation de congruence modulo n est une relation d’équivalence.
Remarquons que si n > 0, alors a et b sont congrus modulo n si et seulement si ils ont le même reste dans la
division euclidienne par n. Il y a donc exactement n classes d’équivalence.
Définition 1.65 : l’ensemble Z/nZ
L’ensemble des classes d’équivalence modulo n est par définition :
Ceci nous permet d’affirmer que nous avons bien défini une loi de composition interne sur Z/nZ.
Théorème 1.67 : le groupe quotient (Z/nZ, +)
L’ensemble Z/nZ est un groupe abélien pour la loi + définie par cl(a) + cl(b) = cl(a + b).
Exemple 1.68 :
La table de Z/4Z est la suivante :
+ 0 1 2 3
0 0 1 2 3
1 1 2 3 0
2 2 3 0 1
3 3 0 1 2
admet au moins une solution c dans Z. L’ensemble des solutions est la classe de c modulo np.
Méthode :
1. On commence à se ramener à x ≡ ci [ni ] (possible car ai est inversible modulo ni ). Ceci se fait à la main ou avec
l’algorithme d’Euclide.
Y
2. On pose Mi = nj puis on résout Mi yi = 1 [ni ] (à la main ou algo d’Euclide).
j6=i
r
X
3. On pose enfin x = ci Mi yi .
i=1
Exemple 1.74
( :
2x = 1 [3]
Résoudre . On obtient x = 11.
5x = 3 [4]
Z −→ G, k 7−→ ak
Z −→ hai, k 7−→ ak ,
il est donc surjectif. Le noyau de ce morphisme est un sous-groupe de Z, donc de la forme nZ d’après le théorème 1.37.
Deux cas peuvent se produire :
• Si n = 0, alors le morphisme est aussi injectif. Le groupe hai est ainsi isomorphe à Z.
• Si n > 0, alors ak = e équivaut à k ∈ nZ : ainsi n est le plus petit entier strictement positif tel que an = e. Le
sous-groupe engendré par a est par conséquent : hai = {e, a, a2 , · · · , an−1 }, ou hai = {0, a, 2a, · · · , (n − 1)a} en
notation additive. Il est de fait isomorphe à Z/nZ.
L’entier n est appelé ordre de l’élément a.
Définition 1.75 : ordre d’un élément d’une groupe
Le plus petit entier naturel non nul n tel que an = e (s’il existe) est appelé ordre de a, noté o(a). C’est l’ordre du
groupe engendré par a.
On dit aussi que a est fini d’ordre n.
Nous venons de démontrer la :
Proposition 1.76 : description des groupes monogènes
1. Tout groupe monogène infini est isomorphe à Z.
2. Tout groupe monogène fini (on dit cyclique) d’ordre n est isomorphe à Z/nZ.
Exemple 1.77 :
Le groupe Un = {z ∈ C ; z n = 1} est engendré par e2iπ/n ; il est d’ordre n, donc isomorphe à Z/nZ.
Remarque 1.78 :
On vient de prouver au passage que si un élément a est fini d’ordre n, alors pour tout entier k : ak = 1G si et
seulement si n divise k.
On déduit de cette remarque et du théorème 1.62 le :
Théorème 1.79 : ordre d’un élément et cardinal du groupe
EPCC : aucun !
2.1.2 Règles de calcul dans un anneau, groupe des éléments inversibles (rappel de Sup)
Proposition 2.4 : règles de calcul dans un anneau (rappel de Sup)
Soit (A, +, ×) un anneau.
1. 0A est un élément absorbant : ∀a ∈ A, a × 0A = 0A × a = 0A .
2. ∀a ∈ A, (−1A ) × a = a × (−1A ) = −a.
3. ∀(a, b) ∈ A2 , (−a) × b = a × (−b) = −ab.
4. ∀(a, b, c) ∈ A3 , (a − b) × c = ac − bc ∧ c(a − b) = ca − cb.
25
2.1. STRUCTURES D’ANNEAU, DE CORPS MP 2022-23
2. ∀a ∈ A, ∀p ∈ N,
2p 2p
! !
X X
1 + a2p+1 = (1 + a) (−a)k = (−a)k (1 + a).
k=0 k=0
3. ∀a ∈ A, ∀n ∈ N∗ , ∀(b1 , . . . , bn ) ∈ An ,
n n
! n n
!
X X X X
abi = a bi ∧ bi a = bi a.
i=1 i=1 i=1 i=1
2
4. ∀(n, p) ∈ (N∗ ) , ∀(a1 , . . . , an ) ∈ An , ∀(b1 , . . . , bp ) ∈ Ap ,
!
p p
n n
! n n
X X X X X X
ai bj = ai bj = ai bj .
i=1 j=1 j=1 i=1 i=1 j=1
Proposition 2.7 : groupe des éléments inversibles d’un anneau (rappel de Sup)
L’ensemble des éléments inversibles d’un anneau est un groupe pour le produit.
En d’autres termes : si A est un anneau alors, en notant U(A) l’ensemble de ses éléments inversibles, le couple
(U(A), ×) est un groupe.
Exemple 2.9 :
• Les inversibles de Z étant 1 et −1, on en déduit que tout entier est associé à un entier naturel et un seul.
• Les inversibles de Z[i] étant 1, −1, i et −i, on en déduit que 1 + 2i et i − 2 sont associés.
• Les inversibles de K[X] étant les éléments non-nuls de K, on en déduit que tout polynôme est associé à un
polynôme unitaire et un seul.
Exemple 2.12 :
1. L’ensemble Z est un sous-anneau de R.
2. L’ensemble Z[i] est un sous-anneau de C, appelé anneau des entiers de Gauss.
3. L’ensemble des application continues de R dans R est un sous-anneau de l’anneau des applications de R dans R.
4. L’ensemble des suites bornées, l’ensemble des suites périodiques, sont des sous-anneaux de RN .
Exemple 2.15 :
Si a est un élément inversible de l’anneau A, alors l’application ϕa : x 7→ axa−1 est un automorphisme d’anneau
de A, appelé automorphisme intérieur. Sa bijection réciproque est ϕa−1 .
Proposition 2.16 : image directe et image réciproque de sous-anneaux par un morphisme
L’image directe et l’image réciproque de sous-anneaux par un morphisme d’anneaux sont des sous-sous-anneaux.
Plus précisément soit f : A → B un morphisme d’anneaux, et A0 et B 0 des sous-anneaux de A et B respectivement.
Alors f (A0 ) est un sous-anneau de B et f −1 (B 0 ) est un sous-anneau de A.
Im (f ) = f (A) = {y ∈ B ; ∃x ∈ A, y = f (x)}.
Exemple 2.21 :
1. (Z, +, ×) est un anneau intègre.
2. Dans l’anneau (RR , +, ×) il y a des diviseurs de zéro. En effet les fonctions f = 1[−2,−1] et g = 1[1,2] , indicatrices
de [−2, −1] et [1, 2] respectivement, sont non-nulles mais de produit nul.
! ! !
0 1 0 1 0 0
3. M2 (R) admet des diviseurs de zéro : × = . On généralise sans problème à
0 0 0 0 0 0
Mn (R).
Exemple 2.24 :
• Les ensembles C, R, Q pour les lois + et × usuelles sont des corps commutatifs.
• Z est un anneau commutatif unitaire intègre, mais ce n’est pas un corps car par exemple 2 n’a pas de symétrique
pour × (i.e. n’admet pas d’inverse).
• K[X] n’est pas un corps car un polynôme non constant n’a pas d’inverse dans K[X].
Remarque 2.25 :
1. Dans la suite, tous les corps qui interviendront seront commutatifs.
2. Tout corps commutatif est un anneau intègre. La réciproque est fausse : (Z, +, ×) est intègre mais pas un corps.
Exemple 2.27 :
• Q est un sous-corps de R, qui est un sous-corps de C (pour les lois + et × usuelles).
√ √
• L’ensemble Q[ 2] = {a + b 2 ; (a, b) ∈ Q2 } est un sous-corps de R.
Remarque 2.28 :
1. Tout sous-corps L d’un corps K est un corps pour les lois induites. Les neutres de L pour + et × sont ceux de
K.
2. Le plus petit sous-corps de C est Q.
En effet soit k un sous-corps de C. Alors 1 ∈ k, donc Z ⊂ k d’après (i), puis Q ⊂ k d’après (ii) et (iv).
Exemple 2.31 :
L’ensemble 2Z des entiers pairs est un idéal de l’anneau Z des entiers.
Plus généralement, les nZ sont des idéaux de l’anneau Z. Nous verrons dans le théorème 2.36 qu’il n’y en a pas
d’autre.
Proposition 2.32 : images directe et réciproque d’un idéal par un morphisme d’anneaux
Soit f un morphisme d’anneaux de A dans A0 (A et A0 anneaux commutatifs).
1. L’image directe d’un idéal de A est un idéal du sous-anneau f (A).
2. L’image réciproque d’un idéal de A0 est un idéal de A. En particulier Ker f est un idéal de A.
Remarque 2.33 :
Pourquoi anneau commutatif ?
Sinon, on parle d’idéal à gauche (∀i ∈ I, ∀a ∈ A, ia ∈ I) ou d’idéal à droite ∀i ∈ I, ∀a ∈ A, ai ∈ I).
Définition 2.34 : idéal engendré par un élément
L’ensemble xA = {xa ; a ∈ A} des multiples d’un élément x de A est un idéal, appelé idéal engendré par x. On
peut aussi le noter (x).
Remarque 2.35 :
La relation « divise » se ramène à une inclusion des idéaux engendrés : x divise y si et seulement si (y) ⊂ (x).
2.2.2 Idéaux de Z
Théorème 2.36 : idéaux de Z
Les idéaux de l’anneau Z sont les nZ, pour n ∈ Z (on dit que l’anneau Z est principal).
aZ + bZ = {au + bv ; (u, v) ∈ Z2 }
Autrement dit l’ensemble des entiers de la forme au + bv est l’ensemble des multiples de a ∧ b.
En particulier :
Théorème 2.38 : Bézout
PGCD(a, b) = 1 si et seulement si : ∃(u, v) ∈ Z2 , au + bv = 1.
• (Lemme de Gauss) Si un entier divise le produit de deux entiers, et s’il est premier avec l’un, alors il divise
l’autre :
( a | bc et pgcd(a, b) = 1 ) =⇒ a | c.
• Si un entier est divisible par les éléments d’une famille d’entiers premiers entre eux deux à deux, alors il est
divisible par leur produit :
• Si un entier est premier avec les éléments d’une famille d’entiers, il est premier avec leur produit :
• Si deux entiers sont premiers entre eux, il en est de même de toutes puissances de ces deux entiers :
Ceci nous permet d’affirmer que nous avons bien défini une loi de composition interne sur Z/nZ. Ceci est la base
de la démonstration du :
Théorème 2.42 : l’anneau quotient Z/nZ
L’ensemble (Z/nZ, +, ×) muni des lois cl(a) + cl(b) = cl(a + b) et cl(a) × cl(b) = cl((ab) est un anneau commutatif
unitaire.
Exemple 2.43 :
La table de multiplication de Z/4Z est la suivante :
× 0 1 2 3
0 0 0 0 0
1 0 1 2 3
2 0 2 0 2
3 0 3 2 1
On constate que Z/4Z n’est pas intègre : 2 × 2 = 0. Les éléments inversibles sont 1 et 3, ils sont leurs propres inverses.
On remarque alors que la surjection canonique a 7→ cl(a) de Z dans Z/nZ est un morphisme d’anneaux surjectif.
Théorème 2.44 : produit des anneaux Z/nZ et Z/pZ
Soit (n, p) ∈ N2 . Si n et p sont premiers entre eux, alors les anneaux Z/nZ × Z/pZ et Z/(np)Z sont isomorphes.
Remarque 2.46 :
Le calcul de l’inverse d’une classe dans Z/nZ se ramène à l’algorithme d’Euclide. Déterminons par exemple l’inverse
de 5 dans Z/14Z. On a 14 = 5 × 2 + 4 et 5 = 4 × 1 + 1 donc 1 = 5 − 4 = 5 − (14 − 5 × 2) = 5 × 3 + (−1) × 14. Par
−1
conséquent 5 = 3 dans Z/14Z.
Remarque 2.47 :
D’après la proposition 2.7, l’ensemble (U(Z/nZ), ×) des inversibles pour × de l’anneau Z/nZ est un groupe.
Définition 2.48 : fonction indicatrice d’Euler
On appelle fonction indicatrice d’Euler la fonction ϕ : N → N qui à n associe le nombre ϕ(n) d’entiers de l’intervalle
[[1, n]] premiers avec n.
D’après le théorème précédent ϕ(n) est le cardinal du groupe des éléments inversibles de l’anneau (Z/nZ, +, ×).
En particulier ϕ(p) = p − 1 si p est premier .
Corollaire 2.49 : un théorème d’Euler
ϕ(n)
Pour tout entier k premier avec n, on a k = 1.
En particulier, pour tout entier relatif x premier avec n, on a xϕ(n)+1 ≡ x mod n.
Pour connaître l’indicatrice d’Euler d’un entier n, il suffit donc de calculer celle des puissances de nombres premiers
figurant dans la décomposition de n.
Si p est un nombre premier, alors les entiers de [[1, pk ]] premiers avec pk sont ceux qui sont premiers avec p, c’est-
à-dire tous ceux qui ne sont pas des multiples de p. Il y a ainsi exactement pk−1 éléments non inversibles modulo p
dans [[1, pk ]] (car multiples de p), à savoir : 1 × p, 2 × p, . . . , pk−1 × p. Par conséquent :
Autrement dit, l’ensemble des polynômes de la forme U P + V Q est l’ensemble des multiples du polynôme pgcd(P, Q).
En particulier :
Théorème 2.55 : Bézout
On a : pgcd(P, Q) = 1 si et seulement si ∃(U, V ) ∈ K[X]2 , U P + V Q = 1.
On a vu en Sup les corollaires de ce théorème :
• (Lemme de Gauss) Si un polynôme divise le produit de deux polynômes, et s’il est premier avec l’un, alors il
divise l’autre :
( P | QR ∧ pgcd(P, Q) = 1 ) =⇒ P | R.
• Si P est divisible par les éléments d’une famille de polynômes premiers entre eux deux à deux, alors il est divisible
par leur produit :
• Si P est premier avec les éléments d’une famille de polynômes, alors il est premier avec leur produit :
• Si deux polynômes sont premiers entre eux, alors il en est de même des puissances de ces deux polynômes :
Remarque 2.56 :
La recherche d’un couple (U0 , V0 ) solution de AU + BV = 1 s’effectue à l’aide de l’algorithme d’Euclide. Pour
déterminer ensuite tous les couples possibles, il faut encore travailler !
Supposons en effet que (U, V ) est une autre solution. Il vient AU0 + BV0 = 1 et AU + BV = 1 donc par différence
A(U − U0 ) + B(V − V0 ) = 0, ce qui implique A(U − U0 ) = −B(V − V0 ). Or A et B sont premiers entre eux, donc
A divise V − V0 . Il existe ainsi un polynôme R tel que V − V0 = AR. On remplace cette dernière égalité dans
A(U − U − 0) = −B(V − V0 ) pour obtenir A(U − U0 ) = −BAR puis U − U0 = −BR.
Les solutions de AU + BV = 1 sont finalement de la forme (U0 − BR, V0 + AR), pour R ∈ K[X].
Exemple 2.57 :
Théorème 2.63 : décomposition d’un polynôme comme produit d’irréductibles (rappel de Sup)
Tout polynôme non constant se décompose comme produit de facteurs irréductibles. La décomposition est unique,
sauf à changer un facteur en un facteur associé ou à modifier l’ordre des facteurs.
On peut affirmer de façon équivalente que tout polynôme non constant se décompose de façon unique comme le
produit d’un scalaire par un produit de polynômes unitaires irréductibles.
Rappelons les irréductibles de C[X] puis de R[X]. Le théorème suivant, parfois appelé théorème fondamental de
l’algèbre, règle le cas de C[X] :
Théorème 2.64 : D’Alembert-Gauss, ou TH fondamental de l’algèbre (rappel de Sup)
Tout polynôme non constant de C[X] possède au moins une racine.
Ce théorème admet de multiples démonstrations, toutes nécessitant des outils que nous n’avons pas le temps de
développer. Ces démonstrations sont donc officiellement hors-programme.
Corollaire 2.65 : irréductibles de C[X] (rappel de Sup)
1. Les seuls polynômes irréductibles de C[X] sont les polynômes de degré 1.
2. Tout polynôme de C[X] de degré n ≥ 0 possède exactement n racines complexes, comptées avec leur ordre de
multiplicité.
Remarque 2.66 :
Le cas réel est trompeur : ce n’est pas parce qu’un polynôme à coefficients réels n’admet aucune racine réelle qu’il
est irréductible ! Par exemple
√ √
X 4 + 1 = (X 2 + 1)2 − 2X 2 = (X 2 − 2X + 1)(X 2 + 2X + 1).
(K[X], +, ×, ·), (L(E), +, ◦, ·), (Mn (K), +, ×, ·), (F(X, K), +, ×, ·),
Exemple 3.3 :
(fondamental !)
1. Dans Kn , pour x = (x1 , . . . , xn ) posons :
n n
! 21
X X
N1 (x) = |xi |, N2 (x) = |xi |2 , N∞ (x) = max |xi |.
i∈[[1,n]]
i=1 i=1
37
3.1. NORMES ET DISTANCES MP 2022-23
Z b
La norme N2 est appelée norme euclidienne associée au produit scalaire (f, g) 7→ f (t)g(t) dt, ou encore
a
norme de la convergence en moyenne quadratique.
La norme N1 est appelée norme de la convergence en moyenne.
La norme N∞ est appelée norme de la convergence uniforme.
Nous avons vu que dans certains cas, la norme est euclidienne (ou hermitienne si K = C), c’est-à-dire associée à
un produit scalaire.
Définition 3.10 : produit scalaire hermitien
(Hors-programme) Si E est un C-espace vectoriel, on appelle produit scalaire hermitien sur E une application ϕ
de E × E dans C sesquilinéaire, hermitienne et définie positive, c’est-à-dire :
On remarquera que si le point 3 est vérifié, alors les points 1 et 2 sont équivalents.
Proposition 3.11 : inégalité de Cauchy-Schwarz, cas complexe (hors-programme)
Soit E un C-espace vectoriel muni d’un produit scalaire hermitien noté ( · | · ). Alors :
2
∀(x, y) ∈ E 2 , |(x|y)| ≤ (x|x)(y|y),
et cette inégalité est une égalité si et seulement si (x, y) est une famille liée.
On en déduit que :
Théorème 3.12 : norme associée à un produit scalaire euclidien
Soit ( · | · ) un produit scalaire sur un R-espace
p vectoriel E.
Alors l’application k · k définie par kxk = (x|x) est une norme, appelée norme euclidienne associée au produit
scalaire.
Elle vérifie en particulier l’inégalité de Minkowski (conséquence de l’inégalité de Cauchy-Schwarz) :
Remarque 3.14 :
Notons que pour tout x ∈ E : kxk = sup |(x|y)|.
kyk≤1
Exemple 3.18 :
1. B(a, r) est bornée par kak + r. De même pour la boule ouverte et la sphère.
2. Dans (R2 , N∞ ), le pavé [a, b] × [c, d] est borné par max (|a|, |b|, |c|, |d|).
est une norme sur B(X, E), notée k · k∞ et appelée la norme infinie.
On laisse à la sagacité du lecteur la vérification que ceci définit bien une norme sur E. D’autres normes peuvent définies
Xn
sur E, par exemple N 0 (x) = kxi kEi .
i=1
Comme pour les suites réelles, on montre facilement l’unicité de ` lorsqu’il existe. On l’appelle limite de la suite.
Proposition 3.25 : propriétés immédiates
1. Toute suite convergente est bornée.
2. L’ensemble des suites bornées de E est un K-espace vectoriel noté `∞ (E), et l’application :
`∞ (E) −→ R
u 7−→ sup kun k
n∈N
Remarque 3.26 :
Il est très important de noter que la définition de la convergence est liée à la norme de E. S’il existe plusieurs
normes sur E, une même suite peut converger pour une norme et diverger pour une autre.
Exemple 3.27 :
Considérons la suite de fonctions (fn )n définies sur [0, 1] par fn (t) = tn .
Z 1
1
• kfn k1 = |tn |dt = : la suite (fn )n converge vers la fonction nulle pour la norme k · k1 (convergence en
0 n + 1
moyenne).
• kfn k∞ = sup tn = 1 : la suite (fn )n ne converge pas vers la fonction nulle (ni vers aucune autre) pour la norme
t∈[0,1]
k · k∞ .
2. Toute suite d’éléments de E qui converge vers 0 pour la norme N converge aussi vers 0 pour la norme N 0 .
2. Dans C([0, 1], R) au contraire, il existe des normes qui ne sont pas équivalentes. Posons :
s
Z 1 Z 1
∀f ∈ C([0, 1], R), kf k1 = |f (t)|dt, kf k2 = f (t)2 dt, kf k∞ = sup |f |.
0 0 [0,1]
k · k1 ≤ k · k 2 ≤ k · k∞ .
1 1
kfn k1 = ; kfn k2 = √ ; kfn k∞ = 1.
n+1 2n + 1
kfn k2 kfn k∞
Les quotients et ne sont pas majorés : les trois normes ne sont pas équivalentes deux à deux.
kfn k1 kfn k2
Il faut donc distinguer la convergence d’une suite de fonctions suivant la norme utilisée :
La convergence uniforme implique la convergence en moyenne quadratique, qui implique la convergence en moyenne,
mais les réciproques sont fausses.
1. Toute suite extraite d’une suite convergente converge vers la même limite.
2. Si une suite admet deux suites extraites qui convergent vers des limites différentes, alors la suite initiale ne
converge pas.
3. Si par exemple (x2n )n et (x2n+1 )n convergent vers `, alors (xn )n converge vers `.
Remarque 3.39 :
Si la suite (xn )n converge vers `, alors ` est l’unique valeur d’adhérence de (xn )n .
Il en résulte qu’une suite ayant au moins deux valeurs d’adhérence distinctes est divergente.
Exemple 3.40 : π
La suite cos n est divergente.
3 n
Remarque 3.41 :
Si E = R ou C, on sait d’après le théorème de Bolzano-Weierstrass que toute suite bornée possède au moins une
valeur d’adhérence. On peut montrer alors que si cette valeur d’adhérence est unique, la suite est convergente. Mais
cette propriété n’est pas vraie dans un espace vectoriel normé quelconque.
3.3.1 Domination
Définition 3.42 : suite dominée par une autre
La suite (xn )n est dite dominée par la suite (αn )n lorsque :
On écrit : xn = O(αn ).
Remarque 3.43 :
1
Si la suite (αn )n ne s’annule pas à partir d’un certain rang xn = O(αn ) signifie que la suite xn est bornée
αn
dans E.
3.3.2 Négligeabilité
Définition 3.44 : suite négligeable devant une autre
La suite (xn )n est dite négligeable devant la suite (αn )n lorsque :
On écrit : xn = o(αn ).
Remarque 3.45 :
1
Si la suite (αn )n ne s’annule pas à partir d’un certain rang, xn = o(αn ) signifie que la suite xn converge vers
αn
0E .
3.3.3 Équivalence
Soit (xn )n et (yn )n deux suites d’éléments de E.
Définition 3.46 : suites équivalentes
On dit que (xn )n est équivalente à (yn )n si la différence (xn − yn )n est négligeable devant (kyn k)n :
On écrit : xn ∼ yn .
On peut montrer qu’il s’agit d’une relation d’équivalence. La symétrie permet de dire « les suites (xn )n et (yn )n
sont équivalentes ».
Proposition 3.47 : suites équivalentes
1. Si deux suites sont équivalentes et si l’une d’elles converge vers `, alors l’autre converge aussi vers `.
2. La suite (xn )n est équivalente à la suite constante (`)n , avec ` 6= 0E , si et seulement si (xn )n converge vers `.
Remarque 3.48 :
Attention : xn ∼ 0E signifie que la suite (xn )n est stationnaire nulle !
EPCC : aucun !
Topologie
∃r > 0 / ∀y ∈ E, ky − xk < r ⇒ y ∈ V.
45
4.1. NOTIONS TOPOLOGIQUES MP 2022-23
En d’autres termes :
∀x ∈ O, ∃r > 0 / ∀y ∈ E, ky − xk < r ⇒ y ∈ O.
∀ε > 0 ∃a ∈ A ka − xk < ε.
Remarque 4.11 :
Exemple 4.13 :
1. Le point du plan d’affixe 1 est un point adhérent à la boule unité ouverte.
2. Tous les points de Z sont des points isolés de Z.
3. Pour l’ensemble A = {a} (singleton), le point a est adhérent à A ; ce point a est un point isolé de A ; mais a
n’est pas un point d’accumulation de A.
Remarque 4.14 :
1. Un point adhérent à A qui ne lui appartient pas est nécessairement un point d’accumulation.
2. Un point isolé appartient nécessairement à A.
L’adhérence A est donc l’ensemble des limites des suites convergentes d’éléments de A. Plus généralement A est
l’ensemble des valeurs d’adhérence des suites d’éléments de A.
Corollaire 4.21 : autre caractérisation séquentielle du caractère fermé
Une partie A d’un espace vectoriel normé est fermée si et seulement si elle contient les limites de toutes ses suites
convergentes.
∃ε > 0 ∀y ∈ E, ky − xk < ε ⇒ y ∈ A.
◦
L’ensemble des éléments de E intérieurs à A est appelé intérieur de A et noté A.
Remarque 4.23 :
◦ ◦
1. Bien sûr, tout élément de A est élément de A : A ⊂ A.
2. La réciproque est fausse : par exemple dans C le point d’affixe 1 est élément de la boule unité fermée mais ne
lui est pas intérieur.
Remarque 4.27 :
1. La frontière de A est l’intersection de deux fermés, c’est donc un fermé.
2. La frontière de A est aussi la frontière du complémentaire de A.
Exemple 4.28 :
La frontière de la boule unité fermée du plan complexe est le cercle unité fermé. Plus généralement la frontière
d’une boule (ouverte ou fermée) est la sphère qui lui est associée.
Exemple 4.30 :
Le segment [0, 1] est un voisinage de 0 relatif à R+ .
Définition 4.31 : ouvert/fermé relatif à une partie
On appelle ouvert relatif de A l’intersection de A avec un ouvert de E, et fermé relatif de A l’intersection de A
avec un fermé de E.
Remarque 4.32 :
1. Un fermé relatif de A est le complémentaire dans A d’un ouvert relatif de A.
2. Attention : un ouvert relatif de A n’est pas nécessairement un ouvert de E. Par exemple ]0, 1[ est un ouvert
relatif de R, mais ce n’est pas un ouvert de C.
3. Attention : un fermé relatif de A n’est pas nécessairement un fermé de E. Par exemple ]0, 12 ] est un fermé relatif
de ]0, 1[, mais ce n’est pas un fermé de R.
∀V ∈ VF (`), ∃W ∈ VE (a) / f (W ∩ A) ⊂ V.
En d’autres termes :
∀ε > 0, ∃α > 0, ∀x ∈ A, kx − ak ≤ α ⇒ kf (x) − `k ≤ ε.
Remarque 4.35 :
Le vecteur ` est adhérent à f (A).
Remarque 4.36 :
La définition faisant intervenir des voisinages peut s’étendre au cas des applications possédant une limite en ±∞
lorsque E = R, ou une limite infinie lorsque F = R.
Il convient pour cela d’appeler voisinage de +∞ toute partie de R contenant au moins un intervalle de la forme
[d, +∞[, et de même voisinage de −∞ toute partie de R contenant au moins un intervalle de la forme ] − ∞, d].
Ainsi lim f (x) = −∞ signifie :
x→+∞
∀c ∈ R ∃d ∈ R ∀x ∈ A x ≥ d ⇒ f (x) ≤ c.
1. Si a n’appartient pas à A, alors f admet une limite en a si et seulement si elle est prolongeable par continuité
en a, c’est-à-dire si la fonction définie sur A ∪ {a} égale à f sur A et telle que f (a) = lim f , est continue en a.
a
2. Si deux normes sont équivalentes, alors elles définissent les mêmes limites et les mêmes fonctions continues. En
dimension finie par exemple, les notions de limite et de continuité sont indépendantes de la norme.
1. L’ensemble des applications de A dans F qui admettent une limite en a est un K-espace vectoriel.
2. En particulier si a ∈ A, alors l’ensemble des applications de A dans F continues en a est un K-espace vectoriel.
3. Si F = K, alors les deux ensembles ci-dessus sont même des K-algèbres.
On écrit : f = O(ϕ).
2. On dit que f est négligeable devant ϕ au point a lorsque :
On écrit : f = o(ϕ).
3. Soit g une autre application de A dans F . On dit que f est équivalente à g au point a lorsque f −g est négligeable
devant kgk :
∀ε > 0 ∃V ∈ V(a) ∀x ∈ V ∩ A kf (x) − g(x)k ≤ ε kg(x)k .
On écrit : f ∼ g.
Remarque 4.50 :
1. Si deux fonctions sont équivalentes en a et si l’une d’elles admet pour limite ` au point a, alors l’autre admet
aussi la limite ` au point a.
Réciproque fausse : deux fonctions de limite nulle ne sont pas forcément équivalentes.
Par exemple f (x) = x et g(x) = x2 en x = 0.
2. La fonction f est équivalente à la fonction constante `, avec ` 6= 0F , si et seulement si f admet la limite ` au
point a.
3. Attention : f ∼ 0F signifie que la fonction f est identiquement nulle sur un voisinage de a, ce qui est rarement
le cas.
Remarque 4.52 :
Attention : cette définition n’est pas universellement adoptée et certains auteurs veulent que f elle-même soit
continue en tout point de B. Il nous semble pourtant normal de dire que la fonction partie entière est continue sur
[0, 1[ (où elle est constante !), bien que non continue en 0. . . Il sera cependant prudent d’être très explicite sur ce genre
de question.
Proposition 4.53 : structure de l’ensemble des applications continues
L’ensemble des applications continues de A dans F est un espace vectoriel, noté C(A, F ). Si F = K il s’agit même
d’une K-algèbre, simplement notée C(A).
Il résulte du théorème de composition des limites que la composée de deux applications continues est continue.
Exemple 4.54 :
L’application identité R → R est bien entendu continue.
Le corollaire 4.44 permet d’affirmer par produit que les applications puissances x 7→ xn sont continues.
r
Encore le corollaire 4.44 permet d’affirmer que les applications multinomiales (x1 , . . . , xp ) 7→ xr11 · · · xpp sont conti-
nues.
Enfin le corollaire 4.43 permet d’affirmer par linéarité que les applications polynomiales
N
X
(x1 , . . . , xp ) 7→ ai1 ,...,ip xr11 · · · xrpp
i1 ,...,ip =0
sont continues.
Théorème 4.55 : applications continues qui coïncident sur une partie dense
Soit E et F deux espaces vectoriels normés et A une partie de E. Deux applications continues de A dans F qui
coïncident sur une partie B dense dans A sont égales.
4.2.6 Image réciproque d’un ouvert ou d’un fermé par une application continue
Théorème 4.56 : caractérisation de la continuité par l’image réciproque d’un ouvert ou d’un fermé
Soit E et F deux espaces vectoriels normés et f une application d’une partie A de E dans F . Les trois propriétés
suivantes sont équivalentes :
(i) f est continue.
(ii) L’image réciproque de tout fermé de F est un fermé relatif de A.
(iii) L’image réciproque de tout ouvert de F est un ouvert relatif de A.
Remarque 4.57 :
Ce résultat permet de démontrer très facilement qu’une partie est ouverte ou fermée.
Exemple 4.58 :
1. Dans R3 , la sphère de centre O de rayon 1 est l’image réciproque du fermé {1} par l’application (x, y, z) 7→
x2 + y 2 + z 2 , continue sur R3 : ainsi cette sphère est fermée dans R3 .
2. Dans R2 , la région strictement comprise entre les deux branches de l’hyperbole équilatère d’équation x2 − y 2 = 1
est l’image réciproque de l’ouvert ] − ∞, 1[ par l’application (x, y) 7→ x2 − y 2 , continue sur R2 : ainsi cette région
est un ouvert relatif de R2 (mais pas un ouvert de R3 par exemple. . . ).
3. Dans Mn (K), l’ensemble des matrices inversibles est l’image réciproque de l’ouvert K∗ par l’application A 7→
det(A), continue : ainsi GLn (K) est un ouvert de Mn (K).
4. Considérons l’espace vectoriel E des suites réelles bornées, muni de la norme k · k∞ , l’ensemble A des suites
convergentes, et l’ensemble B des suites convergentes de limite strictement positive.
Tout d’abord B est l’image réciproque de l’ouvert R∗+ par l’application lim : A → R, (un )n 7→ lim un , qui
n→+∞ n→+∞
est 1-lipschitzienne donc continue : ainsi B est un ouvert relatif de A.
Mais B n’est pas un ouvert de E : si (un )n ∈ B, alors pour tout ε > 0 la suite (vn )n définie par vn = un +(−1)n ε/2
n’est pas dans B (elle n’admet même pas de limite !) alors que k(un )n − (vn )n k∞ = ε/2 < ε.
4.2.7 Homéomorphisme
Définition 4.59 : homéomorphisme
Soit E et F deux espaces vectoriels normés. On appelle homéomorphisme une application continue et bijective de
E dans F dont la bijection réciproque f −1 est aussi continue. On dit aussi que f est bicontinue.
Théorème 4.60 : équivalence de normes et homéomorphisme
Soit E un espace vectoriel. Deux normes N1 et N2 de E sont équivalentes si et seulement si IdE est un homéomor-
phisme de (E, N1 ) dans (E, N2 ).
Remarque 4.63 :
1. En particulier : toute application lipschitzienne sur A est uniformément continue sur A, donc continue sur A.
√
2. La réciproque est fausse : en effet la fonction racine carrée · : R+ → R+ est uniformément continue sur [0, 1]
alors qu’elle n’est pas lipschitzienne sur [0, 1].
Exemple 4.64 :
L’application x 7→ d(x, A) (distance à la partie A d’un EVN E) est lipschitzienne, donc uniformément continue,
donc continue. Ceci a déjà été démontré au chapitre 3, dans l’exemple 3.22.
Remarque 4.66 :
Dans le troisième point, on peut remplacer la boule unité fermée par la boule unité ouverte ou par la sphère unité
ou encore par une boule ouverte ou fermée ou une sphère de rayon fixé quelconque.
Exemple 4.67 :
1. Supposons E = F (espace préhilbertien réel ou complexe). Alors tout automorphisme orthogonal de E conserve
la norme donc est borné sur la boule unité, et par conséquent est continu sur E.
En d’autres termes : un automorphisme orthogonal d’un espace préhilbertien (réel ou complexe) est toujours
continu.
2. Considérons l’espace vectoriel E des suites réelles convergentes, muni de la norme k · k∞ . Alors l’application de
E dans R qui à toute suite convergente associe sa limite est 1-lipschitzienne donc continue sur E.
n
3. Considérons l’espace E = Kn [X] muni de la norme définie pour P = ak X k par kP k∞ = max k∈[[0,n]] |ak |.
P
k=0
Alors l’application dérivation D : E → E, P 7→ P 0 , vérifie : ∀P ∈ Kn [X], kP 0 k∞ ≤ n kP k∞ . Par conséquent elle
est continue.
En revanche, l’application dérivation considérée de K[X] dans K[X] n’est pas continue car kX n k∞ = 1 tandis
que kD(X n )k∞ =
n X n−1
∞ = n n’est pas majoré.
Remarque 4.68 :
1. Si deux normes sont équivalentes (par exemple en dimension finie), alors toute application linéaire continue pour
l’une est continue pour l’autre.
2. Ce n’est pas toujours vrai pour deux normes non équivalentes : il existe des applications qui sont continues pour
une norme et pas pour une autre. En effet dans le dernier exemple, si on munit K[X] de la norme N définie pour
n |ak |
ak X k par N (P ) = max k∈[[0,n]] , alors l’application dérivation de (K[X], k · k∞ ) dans (K[X], N )
P
P =
k=0 (k + 1)!
devient continue car pour tout P ∈ K[X], on a N (P 0 ) ≤ kP k∞ .
Remarque 4.70 :
Lorsque E est de dimension finie, on peut donc confondre LC(E, F ) et L(E, F ).
Soit E, F , G trois espaces vectoriels normés et ϕ une application bilinéaire de E × F dans G. Alors l’application
ϕ est continue sur E × F si et seulement si :
Exemple 4.72 :
1. L’application K × E, (α, x) 7→ αx est bilinéaire continue.
2. Si E est un espace préhilbertien réel ou complexe, le produit scalaire est bilinéaire continu (c’est une conséquence
de l’inégalité de Cauchy-Schwarz).
3. La multiplication matricielle est une application bilinéaire de Mn (K)2 dans Mn (K). Elle est continue car pour
n’importe quelle norme matricielle : kABk ≤ kAk kBk.
Exercice : la norme k · k∞ n’est pas matricielle, par contre la norme de Frobénius (définie par (A|B) = tr (tA · B))
l’est.
Remarque 4.74 :
On démontre par récurrence immédiate que toute application n-linéaire de source un produit d’espaces de dimension
finie est continue.
Ceci permet d’affirmer que le déterminant est une application continue.
Exemple 4.75 :
Si E est un espace vectoriel normé de dimension 2 muni d’une base b = (e1 , e2 ), alors l’application detb : E 2 → K,
(x, y) 7→ detb (x, y) est bilinéaire de source de dimension finie, donc continue.
Plus généralement si E est de dimension n, alors l’application detb : E n → K, (x1 , . . . , xn ) 7→ detb (x1 , . . . , xn ) est
n-linéaire continue.
L’application det : Mn (K) → K, A 7→ det(A) est également continue car polynomiale.
kf (x)k
|||f ||| = sup kf (x)k ou |||f ||| = sup .
kxk=1 x6=0E kxk
Ainsi |||f ||| est donc le plus petit réel K tel que : ∀x ∈ E, kf (x)k ≤ K kxk.
Exemple 4.80 :
E étant un espace vectoriel normé et A une partie non vide de E, l’ensemble des applications bornées de A dans
C, muni de la norme k · k∞ définie par
kf k∞ = sup kf (x)k ,
x∈A
Éléments propres
Soit K un sous-corps de R ou C.
Fixons un K-espace vectoriel E, et un endomorphisme u de E.
Remarque 5.2 :
1. La somme de la famille (F1 , . . . , Fp ) est le plus petit sous-espace vectoriel de E contenant tous les sous-espaces
de cette famille (ou, de façon équivalente, la réunion de cette famille).
2. Pour p = 1, la somme de la famille (F1 ) est évidemment le sous-espace F1 .
57
5.1. SOMME, SOMME DIRECTE D’UNE FAMILLE FINIE DE SOUS-ESPACES VECTORIELS MP 2022-23
p
X
Soit E un K-espace vectoriel et (F1 , . . . , Fp ) une famille de p sous-espaces vectoriels de E (p ≥ 2). La somme Fi
i=1
est directe si et seulement si :
p
X
∀(x1 , . . . , xp ) ∈ F1 × · · · × Fp , xi = 0 =⇒ x1 = · · · = xp = 0.
i=1
Remarque 5.6 :
On remarque que pour p = 2 on retrouve la caractérisation d’une somme directe de deux sous-espaces vectoriels
étudiée en première année : la somme F1 + F2 est directe si et seulement si F1 ∩ F2 = {0}. Il ne faudrait pas en déduire
que pour p > 2 il suffirait que les intersections deux à deux des sous-espaces Fi soient réduites à {0} pour que la
somme F1 + · · · + Fp soit directe. On peut penser, par exemple, à trois droites vectorielles sécantes deux à deux du
plan vectoriel : leur somme n’est pas directe !
p p
!
X X
dim Fi ≤ dim(Fi ).
i=1 i=1
1 −1 1 −1 1 0 0 0 1
De même, l’écriture en blocs est compatible avec la multiplication par un scalaire, c’est-à-dire que si A est une
matrice de Mn,m découpée en blocs (Ai,j ), alors pour tout α ∈ K, la matrice αA s’écrit en blocs (Ci,j ) avec pour tout
(i, j) : Ci,j = αAi,j .
Exemple 5.12 :
1 0 1 −1 0 −1
(−1) × 0 1 −1 = 0 −1 1 .
1 −1 1 −1 1 −1
Il est moins évident et pourtant remarquable que l’écriture en blocs est également compatible avec la multiplication
matricielle, c’est-à-dire que si A et B sont deux matrices appartenant respectivement à Mn,m et Mm,r , découpées en
blocs (Ai,j ) et (Bj,k ) avec la même partition pour les colonnes de A et les lignes de B, alors la matrice AB s’écrit en
Xm
blocs (Ci,k ) avec pour tout (i, k) : Ci,k = Ai,k Bk,j .
j=1
Conformément au programme, la démonstration de ce résultat n’est pas exigible.
Exemple 5.13 :
1 0 1 0 1 1 0
0 1 −1 × 1 0 = 0 1 .
1 −1 1 1 −1 0 0
Remarque 5.14 :
Cela revient à dire que les matrices-blocs se comportent comme des matrices dont les coefficients seraient eux-mêmes
des matrices.
Les opérations élémentaires sur les lignes ou les colonnes d’une matrice (échange, multiplication par un scalaire,
ajout d’une ligne ou d’une colonne dans une autre), destinées à déterminer le rang d’une matrice ou à résoudre un
système linéaire, s’étendent sans difficultés aux matrices blocs.
Exemple 5.19 :
Considérons la matrice :
1 0 1 0
0 1 0 1
A = .
1 0 1 0
0 1 0 −1
1 1
En remplaçant chaque bloc par son déterminant, on obtient = −2, alors que le déterminant de A est
1 −1
évidemment nul (deux lignes sont égales).
∀x ∈ F, u(x) ∈ F.
Dans ce cas, la restriction de u à F , au départ comme à l’arrivée, est un endomorphisme de F appelé endomorphisme
induit par u.
Exemple 5.21 :
Si u et v sont deux endomorphismes de E qui commutent, alors les sous-espaces Ker u et Im u sont stables par v.
En particulier Ker u et Im u sont stables par u.
Si E est de dimension finie, alors on peut compléter la base (e) de D en une base (e, e2 , . . . , en ) de E dans laquelle
la matrice de u sera de la forme :
λ ∗ ··· ∗
0
A = ..
.
.
B
0
Soit F = Vect(e2 , . . . , en ) et p la projection sur F parallèlement à D. Alors B est la matrice de l’endomorphisme de
F induit par p ◦ u.
p
X
P (u) = ak uk où u0 = IdE .
k=0
1K[X] (u) = IdE ; ∀(P, Q) ∈ K[X]2 (αP + βQ)(u) = αP (u) + βQ(u) ; (P Q)(u) = P (u) ◦ Q(u).
Exemple 5.26 : !
2 1
Pour A = et P (X) = X 2 − 2X + 3, calculer P (A).
−1 −1
Remarque 5.27 :
Soit P ∈ K[X].
λ1 (∗) P (λ1 ) (∗0 )
1. Si A =
.. est triangulaire supérieure alors P (A) =
.. l’est aussi.
. 0 .
(0) λn (0) P (λn )
2. En particulier si A = diag (a1 , . . . , an ) est diagonale alors P (A) = diag (P (a1 ), . . . , P (an )) est diagonale.
3. Si A = diag (A1 , . . . , Ak ) est diagonale par blocs alors P (A) = diag (P (A1 ), . . . , P (Ak )) l’est aussi.
! !
A1 A2 P (A1 ) P (A2 )
4. Attention, si A = alors en général P (A) n’est pas égal à !
A3 A4 P (A3 ) P (A4 )
. . . son noyau. . .
Le noyau de ce morphisme est l’ensemble des polynômes P tels que P (u) = 0.
Définition 5.28 : polynôme annulateur d’un endomorphisme
Les polynômes P tels que P (u) = 0 sont appelés les polynômes annulateurs de u.
Remarque 5.29 :
Les polynômes annulateurs de u forment un idéal de l’anneau K[X] (sous-groupe additif de K[X] vérifiant : pour
tout polynôme P annulateur de u et tout polynôme A de K[X], le polynôme AP est encore un polynôme annulateur
de u).
L’anneau K[X] étant principal, l’idéal des polynômes annulateurs de u est principal, c’est-à-dire que c’est l’ensemble
des multiples d’un polynôme µu (X).
Définition 5.30 : polynôme minimal d’un endomorphisme
Parmi les polynômes annulateurs de u, soit µu (X) celui qui est de degré minimal et unitaire. Lorsqu’il est non nul,
ce polynôme µu (X) est appelé le polynôme minimal de u.
Remarque 5.31 :
Vu la remarque précédente, on en déduit que lorsqu’on connaît un polynôme annulateur non nul P de u, le polynôme
minimal de u est nécessairement un diviseur de P .
Exemple 5.32 :
Remarque 5.33 :
Il est à noter qu’un endomorphisme ne possède pas toujours de polynôme minimal. En effet l’ensemble de ses
polynômes annulateurs peut être réduit à {0}).
Par exemple l’opérateur de dérivation D sur K[X] : il n’existe aucune équation différentielle linéaire à coefficients
constants vérifiée par tous les polynômes. Cependant, en dimension finie :
Théorème 5.34 : existence d’un polynôme minimal en dimension finie
Tout endomorphisme d’un espace vectoriel de dimension finie possède un polynôme minimal.
Exemple 5.35 :
La restriction à Kn [X] de l’opérateur de dérivation D a pour polynôme minimal X n+1 .
Voyons trois applications de l’existence de polynômes annulateurs en dimension finie.
Proposition 5.37 : toute sous-algèbre de Mn (K) est stable par prise d’inverse
Soit A une sous-algèbre de Mn (K).
Pour toute matrice M inversible appartenant à A, l’inverse M −1 appartient encore à A.
Exemple 5.38 :
Voici deux applications concrètes de ce résultat :
1. Si T est triangulaire supérieure et inversible, alors son inverse est également triangulaire supérieure.
sup
Ceci découle du fait que Tn (K) est une sous-algèbre de Mn (K).
! !
1 0 0 1
2. Considérons I2 = et A = . Remarquons que Vect(I2 , A) est une sous-algèbre de M2 (R)
0 1 1 0
(exo !). Alors d’après la proposition précédente, l’inverse de xI2 + yA (s’il existe) est de la forme x0 I2 + y 0 A.
La troisième application des polynômes annulateurs que nous citerons est le calcul de la puissance d’une matrice :
Exemple 5.39 :
0 1 −1
Dans M3 (R) soit la matrice A = −3 4 −3 .
−1 1 0
1. Calculer A2 ; vérifier que A2 − 3A + 2I3 = 0.
2. En déduire que A est inversible et déterminer A−1 .
3. Soit n ∈ N, n > 2. Déterminer le reste de la division euclidienne de X n par X 2 − 3X + 2. En déduire An .
. . . et son image !
L’image du morphisme P 7→ P (u) est l’ensemble des endomorphismes de la forme P (u), avec P ∈ K[X]. C’est une
sous-algèbre de L(E).
Définition 5.40 : sous-algèbre engendrée par un endomorphisme
L’image du morphisme P 7→ P (u) est appelée sous-algèbre engendrée par u et notée K[u].
Notons que pour tout polynôme P , l’endomorphisme P (u) commute avec u ; il s’ensuit que les sous-espaces ker P (u)
et Im P (u) sont stables par u.
∀λ ∈ K, χu (λ) = det(λIdE − u)
∀λ ∈ K, χA (λ) = det(λIn − A)
En développant, on obtient :
Proposition 5.43 : trace, déterminant et polynôme caractéristique
Pour toute A ∈ Mn (K), nous avons χA (λ) = λn − tr (A)λn−1 + · · · + (−1)n det(A).
Remarque 5.44 :
n
Y
Si M = (mi,j )i,j est triangulaire supérieure, alors χM (X) = (X − mi,i ).
i=1
Remarque 5.49 :
• Attention : un vecteur propre est supposé non nul. Le sous-espace propre associé à la valeur propre λ est
constitué des vecteurs propres associés à la valeur propre λ et du vecteur nul.
• Lorsque le corps de base est C, le dernier • permet d’affirmer que tout endomorphisme, toute matrice, admet au
moins une valeur propre (et donc un espace propre non réduit à {0}).
Exemple 5.50 :
1. Soit p la projection sur le sous-espace vectoriel F parallèlement à un supplémentaire G. Des valeurs propres de
p sont 0 et 1 ; de plus E0 (p) = G et E1 (p) = F .
2. Soit D l’opérateur de dérivation sur C ∞ (R, R). Alors tout réel est valeur propre de D. Le sous-espace propre
associé à la valeur propre λ est l’ensemble des solutions de l’équation différentielle y 0 = λy, c’est-à-dire Vect(x 7→
eλx ).
3. L’opérateur de dérivation D : K[X] → K[X] n’admet aucune valeur propre autre que 0, puisque l’équation
P 0 = λP n’admet aucune solution polynomiale non nulle.
4. Éléments propres des homothéties, des symétries, des rotations.
Remarque 5.57 :
Soit K0 un sous-corps de K et M une matrice de Mn (K0 ). Alors le spectre de M dans K0 est contenu dans le spectre
de M dans K.
Exemple 5.58:
0 1 0
Pour M = −1 0 0 , il vient χM (X) = (X − 1)(X 2 + 1) donc SpC (M ) = (1, i, −i) contient SpR (M ) = (1).
0 0 1
Proposition 5.59 : en dimension finie, existence de droite ou plan stable d’un endo./d’une matrice
Soit u un endomorphisme d’un espace vectoriel réel ou complexe de dimension finie (respectivement A une matrice
carrée).
Alors l’endomorphisme u admet une droite stable ou un plan stable.
Corollaire 5.61 : liberté des vecteurs propres associés à des valeurs propres distinctes
Toute famille de vecteurs propres associés à des valeurs propres distinctes deux à deux est libre.
La réciproque est fausse : X 2 − X est un polynôme annulateur de IdE , mais sa racine 0 n’est pas une valeur propre
de IdE .
Exemple 5.64 :
Soit p un projecteur. Alors p2 − p = 0 donc X 2 − X = X(X − 1) est un polynôme annulateur de p. Les valeurs
propres de p sont à chercher dans {0, 1}. Or 0 et 1 sont valeurs propres, d’où Sp(p) = {0, 1}.
Corollaire 5.65 : valeurs propres et racines du polynôme minimal
Si u admet un polynôme minimal µu (X) (ce qui est le cas notamment en dimension finie), alors les valeurs propres
de u sont exactement les racines de µu (X). En d’autres termes : Sp(u) = Z(µu (X)) = Z(χu (X)).
Plus généralement, si F1 , . . . , Fp sont des sous-espaces stables par u dont E est somme directe, alors le polynôme
caractéristique de u est le produit des polynômes caractéristiques des endomorphismes induits par u sur F1 , . . . , Fp .
Corollaire 5.67 : encadrement de la dimension d’un espace propre
Soit E un K-espace vectoriel de dimension finie, u un endomorphisme de E, et λ une valeur propre de u, d’ordre
de multiplicité m dans χu . Alors :
1 ≤ dim Eλ (u) ≤ m.
Remarque 5.68 :
En particulier si λ est une racine simple de χu alors m = 1, donc dim Eλ (u) = 1.
χu (u) = 0.
Démonstration
HORS-PROGRAMME
Notons n = dim(E) et prouvons que χu (u)(x) = 0E pour tout x ∈ E. Déjà si x est nul alors l’égalité est claire.
Supposons désormais x 6= 0E , de sorte que (x) est une famille libre. Considérons
Par construction uν (x) est lié avec (x, u(x), . . . , uν−1 (x)) qui est libre, donc uν (x) se décompose en
Complétons la famille (x, u(x), . . . , uν−1 (x)) en une base B de E, dans laquelle la matrice de u est :
0 a0 ∗
. .. .. ..
1 . . !
.. =
C(P ) ∗
[u]B =
. ..
ν,n−ν
0 aν−2 . 0n−ν,ν M
1 aν−1 ∗
0 ··· ··· 0 M
où P (X) = X ν − aν−1 X ν−1 − · · · − a1 X − a0 . Constatons que P (u)(x) = 0E . Démontrons maintenant que χC(P ) = P ,
ce qui justifiera a posteriori que la matrice C(P ) est appelée matrice compagne de P . En effet :
0 −a0
1 0
−a1
.. .. ..
C(P ) =
. . . .
.. ..
. 0 .
1 −an−1
n−1
X
Ajoutons à la première ligne L1 du polynôme caractéristique de cette matrice la combinaison linéaire X k Lk+1 .
k=1
Pour être plus précis : en remontant, on ajoute X fois une ligne à celle qui est au-dessus. Ainsi à Ln−1 on ajoute XLn ,
puis à Ln−2 on ajoute X fois la nouvelle Ln−1 , et ainsi de suite.
n−1
X
0 Xn + ak X k
X 0 ··· 0 a0 0 0 ···
−1 X . . .
..
k=0
. .. ..
a1
.
−1 0 . a
.. .. .
1
.
χC(P ) (X) = . . .
=
. .
0 .. .. .
. . .
.. .. 0
. X
. .. ..
. .
0
−1 X + an−1
−1 X + an−1
n−1
!
X
En développant par rapport à la première ligne il vient χC(P ) (X) = (−1)n−1 ×(−1)n−1 × X n + ak X k c’est-à-dire
k=0
n−1
X
χC(P ) (X) = X n + ak X k = P (X) .
k=0
Remarque 5.71 :
Le théorème de Cayley-Hamilton permet de calculer la puissance d’une matrice. Il suffit en effet d’appliquer la
même technique que dans l’exemple 39.
En supposant χA (X) connu, on commence par calculer la division euclidienne de X n par le polynôme caractéris-
tique : (∗) X n = QχA (X) + R(X) avec deg(R) < n. La détermination de R(X) se fait en évaluant (∗) en les valeurs
propres de A. Ensuite, en évaluant (∗) en A, il vient An = Q(A)χA (A) + R(A) = R(A).
Remarque 6.2 :
On peut retrouver le terme général d’une série à partir de ses sommes partielles : un = Sn − Sn−1 .
Exemple 6.3 :
71
6.1. SÉRIES RÉELLES OU VECTORIELLES MP 2022-23
X1 Z k+1
1 dt 1
1. La série , appelée série harmonique est divergente. En effet : ∀k ∈ N ,
∗
≤ ≤ , d’où :
n
n k + 1 k t k
n Z n+1 n
X 1 dt X 1
Sn = ≥ = ln(n + 1) d’où lim = +∞.
k 1 t n→+∞ k
k=1 k=1
X 1 1 1 1
2. La série est convergente. En effet : ∀k ∈ N∗ , = − , d’où :
n
n(n + 1) k(k + 1) k k+1
n n n
X 1 X 1 X 1 1
= − = 1− .
k(k + 1) k k+1 n+1
k=1 k=1 k=1
+∞
X 1
La somme de la série est : = 1. C’est un cas de série « télescopique » :
n=1
n(n + 1)
X
3. La série un est télescopique lorsqu’il existe une suite de réels (vn )n telle que un = vn − vn+1 pour tout entier
n
n
X X
n. La somme partielle vérifie par conséquent uk = v0 − vn+1 . La série un est alors convergente si et
k=0 n
+∞
X
seulement si la suite (vn )n converge, et dans ce cas : un = v0 − lim vn .
n→+∞
n=0
Remarque 6.7 :
Cette condition n’est pas du tout suffisante : il existe des séries dont le terme général converge vers 0 mais pas
convergentes pour autant. Par exemple la série harmonique !
Définition 6.8 : série grossièrement divergente
Une série dont le terme général ne converge pas vers 0E est dite grossièrement divergente.
Exemple 6.9 :
La série de terme général (−1)n est grossièrement divergente.
Proposition 6.10 : convergence des séries à termes complexes — rappel de Sup
X X
Soit (zn )n∈N une suite complexe. Alors la série zn converge si et seulement si les deux séries <(zn ) et
X n n
=(zn ) convergent et, dans ce cas :
n
+∞
X +∞
X +∞
X
zn = <(zn ) + i =(zn ).
n=0 n=0 n=0
La propriété « absolue convergence implique convergence » peut ensuite être étendue aux séries à valeurs complexes
en séparant de la même façon parties réelle et imaginaire.
Corollaire 6.13 : CA⇒ CS en dimension finie
Toute série absolument convergente, à termes dans un espace vectoriel réel de dimension finie, est convergente.
Exemple 6.14 :
X (−1)n
1. La série réelle est absolument convergente, donc convergente.
n
n(n + 1)
X einx
2. La série complexe est absolument convergente, donc convergente.
n
n2
X An kAn k
3. Pour toute matrice orthogonale A ∈ O(p), la série de matrices est absolument convergente car =
n
n2 n2
√
p
2
.
n
X An
Ainsi : si A ∈ O(p) alors est convergente.
n
n2
Remarque 6.15 : X
ATTENTION ! ! ! La réciproque est fausse : une série un peut être convergente sans que la série des valeurs
X n
absolues/modules |un | le soit. On dit alors qu’elle est semi-convergente.
n
Exemple 6.16 :
X (−1)n (2n + 1)
La série est semi-convergente. En effet :
n
n(n + 1)
(−1)n (2n + 1) (−1)n (−1)n−1
• Elle converge car = − , d’où par télescopage :
n(n + 1) n+1 n
+∞
X (−1)n (2n + 1)
= −1.
n=1
n(n + 1)
(2n + 1) 2 X 2
• Elle n’est pas absolument convergente, car ≥ et la série tend vers +∞.
n(n + 1) n+1 n
n+1
Remarque 6.18 :
Remarquons qu’on sait aussi calculer explicitement le reste, ce qui est assez rare pour une série :
z n+1
Rn = .
1−z
+∞
X
An = (Ip − A)−1 .
n=0
Remarque 6.21 :
1 1
ATTENTION ! La notation n’a pas de sens en général. En particulier l’écriture est à proscrire !
e−u In − A
Remarque 6.23 :
1. Pour A = R ou A = C, on retrouve la fonction exponentielle réelle ou complexe déjà connue. Voir plus bas.
2. On a ainsi une définition de l’exponentielle d’un endomorphisme d’un espace vectoriel de dimension finie, ou
d’une matrice carrée (réelle ou complexe).
3. Au chapitre 10 (fonctions vectorielles, exemple 72) nous généraliserons bon nombre de propriétés de l’exponen-
tielle d’un réel ou d’un complexe (dérivée, exponentielle de la somme. . . ) aux exponentielles d’éléments d’un
espace vectoriel normé.
Exemple 6.24 : !
cos θ − sin θ
Soit R(θ) = A = la matrice de la rotation plane d’angle θ. Calculer exp(R(θ)).
sin θ cos θ
+∞ n
X z
= ez
n=0
n!
Exemple 6.28 :
X (−1)n
1
La série harmonique alternée est convergente, car elle est alternée et est décroissante et converge
n
n n n
vers 0.
Ce type de séries convergentes est particulièrement avantageux car on a beaucoup de renseignements sur la somme
de la série, et sur le reste d’ordre n :
Corollaire 6.29 : propriétés des séries réelles vérifiant le CSSA
X n
X
Soit un une série vérifiant le critère spécial des séries alternées. On note Sn = uk la somme partielle et
n k=0
+∞
X
Rn = uk le reste d’ordre n de cette série. Alors pour tout n ∈ N :
k=n+1
1. La somme de la série est comprise entre les sommes partielles consécutives Sn et Sn+1 .
2. Le reste Rn est du signe du premier terme négligé : Rn un+1 ≥ 0.
3. Le reste Rn est majoré en valeur absolue par le premier terme négligé : |Rn | ≤ |un+1 |.
6.2.1 Définition
Définition 6.30 : produit de Cauchy de séries
On appelle produit de Cauchy de deux suites (un )n et (vn )n d’éléments de A la suite (wn )n définie par :
n
X X
∀n ∈ N, wn = uk vn−k = ui vj .
k=0 i+j=n
6.2.2 Convergence
Étudions d’abord la convergence du produit de Cauchy de deux séries convergentes à termes positifs :
Lemme 6.32 :X produitXde Cauchy de séries à termes réels positifs X
Si les séries un et vn de réels positifs sont convergentes, alors leur produit de Cauchy wn est convergent,
n n n
et : ! !
+∞
X +∞
X +∞
X
wn = un vn .
n=0 n=0 n=0
Ce résultat se généralise aux séries absolument convergentes d’une algèbre normée unitaire de dimension finie :
+∞ +∞
! +∞
!
X X X
wn = un vn .
n=0 n=0 n=0
Exemple 6.37 :
X 1
La série converge, car :
n
n2
n n
X 1 X 1
≤ 1 + ≤ 2.
k2 (k − 1)k
k=1 k=2
Remarque 6.38 :
erreur classique !
Malheureusement, ce raisonnement ne donne qu’un majorant de la somme de la série et ne permet pas de déterminer
cette somme. On peut seulement dire que la somme de la série est la borne supérieure des sommes partielles.
Corollaire
X 6.39 :X cas classiques de convergence de séries à termes positifs — rappel de Sup
Soit un et vn deux séries de nombres réels à termes positifs.
n n
X X X X
1. Supposons 0 ≤ un ≤ vn . Alors : si vn converge alors un converge ; si un diverge alors vn diverge.
n n n n
X X X
2. Supposons un ≥ 0, vn ≥ 0 et un = O(vn ). Alors : si vn converge alors un converge ; si un diverge alors
X n n n
vn diverge.
n
X X
3. Supposons un ≥ 0, vn ≥ 0 et un ∼ vn . Alors : les séries un et vn sont de même nature (toutes deux
n n
convergentes ou toutes deux divergentes).
Remarque 6.40 :
1. On pourra souvent utiliser ce résultat en comparant une série avec une série de Riemann.
X1 1 1 1 1
Par exemple la série sin est convergente, car sin ∼ 2 .
n
n n n n n
2. Attention, les séries sont de même nature mais leurs sommes ne sont pas pour autant égales !
6.3.2 Comparaison d’une série à termes positifs à une intégrale — rappel de Sup
Théorème 6.41 : comparaison série/intégrale — rappel de Sup
Soit f une fonction continue par morceaux sur R+ , positive et décroissante. Alors :
Z n
1. La série de terme général wn = f (t)dt − f (n) est convergente.
n−1
X Z n
2. La série f (n) est convergente si et seulement si la suite d’intégrales f (t)dt est convergente.
n 0
Exemple 6.44 :
X 1
On retrouve que la série converge et que sa somme est inférieure ou égale à 2.
n
n2
Remarque 6.45 :
X 1
La somme de la série de Riemann pour α > 1 est notée ζ(α).
n
nα
Prolongée à C \ {1} (dur), cette fonction zeta de Riemann joue un rôle très important dans de nombreuses branches
des mathématiques. La célèbre hypothèse de Riemann, toujours indémontrée depuis 1859, conjecture que les zéros de
1
cette fonction, autres que les entiers négatifs pairs, ont tous pour partie réelle . De ce résultat dépend, par exemple,
2
la répartition des nombres premiers. . .
1
Les calculs actuels ont prouvé que les 1013 premiers zéros de la fonction zeta sont effectivement d’abscisse
2
et des tests statistiques portant sur d’autres zéros les donnent bien sur la même droite. Mais même 1013 exemples
convaincants ne constituent pas une démonstration !
Corollaire 6.46 : convergence des séries de Bertrand (hors-programme)
X 1
La série de Bertrand α (ln n)β
est convergente si et seulement si α > 1 ou (α = 1 et β > 1).
n
n
Exemple 6.48 :
X n! n!
Étudions la série n
. Soit n ∈ N. Posons un = n . Alors :
n
n n
un+1 (n + 1)! nn nn 1
= = = .
un (n + 1) n+1 n! (n + 1)n (1 + n1 )n
n
1 un+1 1
Or lim 1+ = e, d’où lim = < 1, donc la série converge.
n→+∞ n n→+∞ un e
Remarque 6.49 :
un+1
• Si la suite est de limite 1 par valeurs supérieures, alors la suite (un )n est croissante à partir d’un
un n
X
certain rang, et par conséquent la série un est grossièrement divergente.
n
un+1
• Si est de limite 1 par valeurs inférieures ou de façon quelconque, alors on ne peut rien conclure.
un
un+1 X
• Le fait que ≤ k ≤ 1 ne sert à RIEN pour étudier la convergence de un .
un n
6.3.4 Sommation des relations de comparaison, pour les séries réelles à termes positifs
Étant données deux séries convergentes à termes réels positifs, la comparaison de leurs termes généraux permet de
comparer leurs restes d’ordre n :
ThéorèmeX 6.50 X : comparaison des restes des séries convergentes à termes réels positifs
Soit un et vn deux séries convergentes à termes réels positifs. On désigne par rn et rn0 leurs restes respectifs
n n
d’ordre n.
1. Si un = O(vn ), alors rn = O(rn0 ).
2. Si un = o(vn ), alors rn = o(rn0 ).
3. Si un ∼ vn , alors rn ∼ rn0 .
Exemple 6.51 :
X 1 1 1
Trouvons un équivalent du reste d’ordre n de la série convergente 2
. Remarquons que 2 ∼ . Or :
n
n n n(n + 1)
+∞ +∞
X 1 X 1 1 1
= − = .
k(k + 1) k k+1 n+1
k=n+1 k=n+1
X 1 1
On en déduit que le reste de la série 2
est équivalent à .
n
n n
De même, étant données deux séries divergentes à termes positifs, la comparaison de leurs termes généraux permet de
comparer leurs sommes partielles d’ordre n :
ThéorèmeX 6.52 X : comparaison des sommes partielles des séries divergentes à termes réels positifs
Soit un et vn deux séries divergentes à termes réels positifs. On désigne par Sn et Sn0 leurs sommes partielles
n n
respectives d’ordre n.
1. Si un = O(vn ), alors Sn = O(Sn0 ).
2. Si un = o(vn ), alors Sn = o(Sn0 ).
3. Si un ∼ vn , alors Sn ∼ Sn0 .
Exemple 6.53 :
n n n
X 1 1 1 X 1 X 1 1
Trouvons un équivalent de . Remarquons que ∼ . Or ∼ ln n, d’où ∼ ln n.
2k − 1 2k − 1 2k k 2k − 1 2
k=1 k=1 k=1
Remarque 6.55 :
La√valeur de K peut être calculée de diverses façons, notamment à partir des intégrales de Wallis. On obtient
K = 2π. La formule de Stirling s’écrit donc :
n n √
n→+∞
n! ∼ 2πn.
e
7.1 Diagonalisation
7.1.1 Définition d’un endomorphisme diagonalisable
Définition 7.1 : endomorphisme diagonalisable
On dit que u est diagonalisable lorsqu’il existe une base B de E dans laquelle la matrice de u est diagonale.
Proposition 7.2 : CNS de diagonalisabilité
L’endomorphisme u est diagonalisable s’il vérifie une des trois propriétés équivalentes suivantes :
1. Il existe une base de E formée de vecteurs propres de u.
λ1
2. Il existe une base B de E dans laquelle la matrice de u est diagonale : MatB
.. .
B (u) =
.
λn
3. La somme directe des sous-espaces propres de u est égale à E :
L
Eλ (u) = E.
λ∈Sp(u)
X
Si les pλ sont les projecteurs associés à la somme directe alors on a la décomposition spectrale de u : u= λ pλ .
λ∈Sp(u)
Réciproquement : si u est une combinaison linéaire de projecteurs associés à une somme directe, alors u est diagona-
lisable.
Problème : ce n’est pas parce que Sp(u) est connu que u est diagonalisable ! Il nous faut maintenant des caractéri-
sations de la diagonalisabilité.
Définition 7.3 : endomorphisme diagonalisable d’un EV de dimension finie
Une matrice carrée A est dite diagonalisable lorsqu’elle représente un endomorphisme diagonalisable, autrement
dit lorsqu’elle est semblable à une matrice diagonale D :
∃P ∈ GLn (K), A = P DP −1 ,
81
7.1. DIAGONALISATION MP 2022-23
2. Nous donnerons plus loin des méthodes effectives de diagonalisation d’un endomorphisme ou d’une matrice.
Exemple 7.11 :
Les projections et les symétries sont diagonalisables. En effet :
• Une projection est une application linéaire p telle que p2 = p. Le polynôme X 2 − X = X(X − 1), scindé et à
racines simples, annule p.
• Une symétrie est une application linéaire s telle que s2 = IdE . Le polynôme X 2 − 1 = (X − 1)(X + 1), scindé et
à racines simples, annule s.
∃P ∈ GLn (K), A = P DP −1 ,
1 1 0
Montrer que la matrice A est diagonalisable. La diagonaliser.
7.2 Trigonalisation
Toujours les mêmes hypothèses : u endomorphisme d’un K-espace vectoriel E de dimension finie.
Soit B = (e1 , . . . , en ) une base de E ; pour tout k ∈ [[1, n]], posons Fk = Vect(e1 , . . . , ek ). La matrice de u dans la base
B est triangulaire supérieure si et seulement si tous les sous-espaces Fk sont stables par u.
Il en résulte que :
Proposition 7.15 : trigonalisabilité et existence d’un drapeau
L’endomorphisme u (du K-espace E de dimension finie) est trigonalisable si et seulement si il existe une suite
(F1 , . . . , Fn ) de sous-espaces stables par u, strictement croissante pour l’inclusion.
Définition 7.16 : drapeau de sous-espaces
Une telle suite strictement croissante (pour l’inclusion) de sous-espaces :
F1 ⊂ F2 ⊂ · · · ⊂ Fn
∃P ∈ GLn (K), A = P T P −1 ,
∃P ∈ GLn (K) A = P T P −1
7.3 Applications
Ces applications sont des grands classique des oraux.
Il faut connaître par coeur ces techniques et être au point sur les calculs.
Toujours les mêmes hypothèses : u endomorphisme d’un K-espace vectoriel E de dimension finie.
Exemple 7.23 :
Trouver le commutant de la matrice A :
5 2 −4
A = 4 3 −4 .
4 2 −3
∀k ∈ N, Ak = P Dk P −1
et il suffit donc de calculer les puissances de la matrice diagonale D et l’inverse de P pour en déduire les puissances
de A.
Exemple 7.24 :
1 1 0
Exemple 7.26 :
Suite récurrente linéaire d’ordre 2, cas d’une matrice trigonalisable.
Trouver la suite récurrente (un )n satisfaisant :
∀n ∈ N, un+2 = 2un+1 − un
et les conditions initiales u0 = 1, u1 = 3.
3 1 3
En particulier le déterminant d’une matrice est le produit de ses valeurs propres, et la trace d’une matrice est la somme
de ses valeurs propres.
tr (Ak+1 ) k→+∞
−→ λ i0 .
tr (Ak )
Ceci permet également d’obtenir une approximation du rayon spectral ρ(A) = max λ∈Sp(A) |λ|.
Les propriétés des endomorphismes en dimension finie s’appliquent aux matrices carrées. En particulier :
Proposition 7.35 : propriétés des matrices carrées nilpotentes
1. Une matrice carrée est nilpotente si et seulement si elle est trigonalisable avec pour seule valeur propre 0.
2. L’indice de nilpotence d’une matrice de Mn (K) est inférieur ou égal à n.
3. Si une matrice A ∈ Mn (K) est nilpotente d’indice n, alors elle est semblable à la matrice nilpotente de Jordan :
0 1 0 ... 0
. . ..
.. .. ... ... .
. .. ..
..
Jn = . . 0 ,
.
. ..
. .
1
0 ... ... ... 0
0 . . . 0 Tk 0 . . . 0 λi
Exemple 7.39 :
1 0 0 0
−1 4 1 −2
Trigonalisons A = à l’aide des espaces caractéristiques.
2 1 2 −1
1 2 1 0
EPCC : exercices 59, 67, 69, 70, 72, 73, 88, 91.
8.1 Dénombrabilité
Dans cette première partie, nous allons apprendre à compter !
n 0 1 −1 2 −2 3 −3 ...
f (n) 0 1 2 3 4 5 6 ...
89
8.1. DÉNOMBRABILITÉ MP 2022-23
2. Les exemples ci-dessus permettent d’affirmer que ℵ0 + 1 = ℵ0 puis ℵ0 − 1 = ℵ0 . Par récurrence immédiate :
ℵ0 + k = ℵ0 pour tout k ∈ Z.
À l’aide du 3e exemple : 2ℵ0 = ℵ0 . Encore par récurrence immédiate : kℵ0 = ℵ0 pour tout k ∈ N∗ .
Exemple 8.4 :
L’hôtel de Hilbert est une curiosité mathématique digne de trois étoiles dans le guide « relais et châteaux ».
Cet hôtel possède une infinité dénombrable de chambres, numérotées 0, 1, 2, . . .
Supposons que l’hôtel soit complet : chaque chambre contient un client et un seul.
1. Un client supplémentaire arrive ? Pas de problème ! Les clients déjà en place se décalent d’une chambre, le dernier
arrivé va dans la chambre 0 (ceci illustre ℵ0 + 1 = ℵ0 ).
2. Un nombre fini k de clients arrive ? Pas de problème ! Chaque client déjà en place va k chambres plus loin, et on
case les k nouveaux arrivants dans les chambres 0 à k − 1 (ceci illustre ℵ0 + k = ℵ0 ).
3. Une infinité dénombrable de clients arrive ? Pas de problème ! Chaque client déjà en place va dans la chambre
de numéro double de sa chambre actuelle (0 → 0, 1 → 2, 2 → 4, 3 → 6, . . . ) et les nouveaux clients s’intercalent
dans les chambres de numéros impairs (ceci illustre 2ℵ0 = ℵ0 ).
Remarque 8.8 :
Cette fonction alambiquée n’est que la mise en forme de l’énumération évidente de N2 par balayage diagonal :
5 20 26 33 41 50 60
4 14 19 25 32 40 49
3 9 13 18 24 31 39
2 5 8 12 17 23 30
1 2 4 7 11 16 22
0 0 1 3 6 10 15
q/p 0 1 2 3 4 5
Exemple 8.11 :
[ p
L’ensemble Q est dénombrable car Q = avec Z × N∗ dénombrable, est dénombrable.
∗
q
(p,q)∈Z×N
Remarquons que les termes non nuls d’une famille de réels positifs ne peuvent pas être « très nombreux » :
Proposition 8.16 : support d’une famille sommable de réels positifs
Soit (ui )i∈I une famille sommable de réels positifs. Alors son support K = {i ∈ I / ui 6= 0} est fini ou dénombrable.
Théorème 8.17 : de Fubini version faible, ou de sommation par paquets, pour les familles de réels
positifs — ADMIS
Soit (ui )i∈I une famille de nombres réels positifs et (In )n∈N une partition dénombrable de I.
Alors la famille (ui )i∈I est sommable si et seulement si les deux conditions suivantes sont vérifiées :
1. Pour tout n ∈ N, la sous-famille (ui )i∈In est sommable.
!
X X
2. La série ui est convergente.
n i∈In
Dans ce cas : !
+∞
X X X
ui = ui .
n=0 i∈In i∈I
Remarque 8.18 :
Si l’une des deux hypothèses n’est pas réalisée, alors on écrit :
+∞
!
X X X
ui = ui = +∞.
n=0 i∈In i∈I
Remarque 8.19 :
La réciproque est fausse : la famille ((−1)n )n n’est pas sommable mais les sommes partielles par paquets de 2
donnent l’illusion d’une convergence.
Remarque 8.22 :
Cas des familles de nombres complexes indexées par N ou Z.
1. Une famille (un )n∈N (indexée par N) est sommable si et seulement si la série un est absolument convergente.
P
X +∞
X
Dans ce cas : un = un .
n∈N n=0
2. Une famille (un )n∈Z est sommable si et seulement si les deux séries un et u−n sont absolument convergentes.
P P
X X+∞ +∞
X
Dans ce cas : un = un + u−n .
n∈Z n=0 n=1
+∞
X +∞
X
uσ(n) = un .
n=0 n=0
Remarque 8.24 :
La condition de convergence absolue est indispensable à la validité du théorème. Considérons la série semi-
(−1)n−1
convergente xn avec xn = et soit S sa somme (on peut montrer que S = ln 2). Soit ϕ : N∗ → N∗
P
n
définie par ϕ(3k + 1) = 2k + 1, ϕ(3k + 2) = 4k + 2 et ϕ(3k + 3) = 4k + 4. On vérifie facilement que ϕ est une bijection
de N dans N, sa bijection réciproque étant définie par des congruences modulo 4).
Sommons alors par paquets de 3 la série xϕ(n) . On a
P
1 1 1 1 1
xϕ(3k+1) + xϕ(3k+2) + xϕ(3k+3) = − − = −
2k + 1 4k + 2 4k + 4 4k + 2 4k + 4
1 1
= = O .
2(2k + 1)(2k + 2) k2
Dans ce cas : !
+∞
X X X
ui = ui .
n=0 i∈In i∈I
Remarque 8.26 :
Attention, si l’une au!moins des hypothèses n’est pas réalisée alors la famille (ui )i∈I n’est pas forcément sommable,
+∞
X X
et la somme ui peut exister sans représenter la somme de la famille ! Par exemple, pour la famille ((−1)n )n∈N
n=0 i∈In
qui n’est évidemment pas sommable, on peut considérer
! la partition (In )n∈N de N définie par In = {2n, 2n + 1}. On a
X +∞
X X
alors ui = 0 pour tout n ∈ N, donc ui = 0, qui ne représente pas la somme de la famille.
i∈In n=0 i∈In
Dans ce cas :
1. Pour tout entier p, la série q up,q est convergente. Notons Tp sa somme.
P
3. Et on a la double égalité :
+∞ X
+∞
! +∞ X
+∞
!
X X X
up,q = up,q = up,q .
(p,q)∈N×N q=0 p=0 p=0 q=0
Attention, les deux premiers points sont importants ! Sinon la 2e égalité n’a pas de sens.
On continue à broder :
Corollaire 8.29 : somme double à variables séparables
Soit (ap )p∈N et (bq )q∈N deux familles sommables de nombres complexes. Alors la famille (ap bq )(p,q)∈N×N est som-
mable et :
X X X
ap bq = ap × bq .
(p,q)∈N×N p∈N q∈N
+∞
!
X X X
up,q = up,q .
(p,q)∈N×N n=0 p+q=n
+∞ +∞
! +∞ !
X X X
wn = un vn .
n=0 n=0 n=0
Remarque 8.35 :
On rappelle que le théorème ci-dessus n’est pas valable pour les séries semi-convergentes. Voir exemple dans le
chapitre 6, séries de nombres réels ou de vecteurs.
EPCC : aucun !
Exemple 9.2 :
Posons fn (x) = xn pour x ∈ [0, 1]. La suite des fonctions fn converge simplement vers la fonction f telle que :
f (x) = 0 si x ∈ [0, 1[ et f (1) = 1.
Remarque 9.3 :
L’exemple précédent montre que la limite d’une suite de fonctions continues n’est pas nécessairement continue.
Remarque 9.5 :
97
9.1. CONVERGENCE D’UNE SUITE DE FONCTIONS MP 2022-23
Rappelons que dans l’ensemble des fonctions bornées de A dans K, l’application g 7→ sup |g(x)| est une norme
x∈A
notée k k∞ . Ainsi la convergence uniforme sur A peut s’écrire :
Il s’agit donc de la convergence au sens de la norme k k∞ . Cette norme est appelée norme de la convergence uniforme.
Théorème 9.6 : CU ⇒ CS
Pour les suites de fonctions, la convergence uniforme implique la convergence simple.
Remarque 9.7 :
1. La réciproque du théorème est fausse : dans l’exemple 9.2 du paragraphe précédent (fn (x) = xn pour x ∈ [0, 1]),
on a : kfn − f k∞ = sup |fn (x) − f (x)| = 1, qui ne tend pas vers 0.
x∈[0,1]
2. Utile : pour démontrer qu’une suite de fonctions convergeant simplement vers f ne converge pas uniformément,
il suffit de trouver une suite (xn )n d’éléments de A telle que fn (xn ) − f (xn ) ne tende pas vers 0.
En effet : kfn − f k∞ ≥ |fn (xn ) − f (xn )|.
Exemple 9.8 :
Toujours avec le même exemple (fn (x) = xn pour x ∈ [0, 1]), prouver la non-convergence uniforme à l’aide du
second point de la remarque précédente (à l’aide de xn bien choisi).
Remarque 9.9 :
Dans le cas d’une suite de fonctions de R dans R, la convergence uniforme d’une suite (fn )n vers f s’interprète
graphiquement de la façon suivante : pour tout ε > 0, le voisinage tubulaire compris entre les graphes des fonctions
f − ε et f + ε contient tous les graphes des fonctions fn à partir d’un certain rang.
Exemple 9.10 :
La suite (fn )n converge simplement vers 0, mais pour tout n ∈ N∗ , fn ( n1 ) = 1 : ainsi la convergence n’est pas
uniforme.
3. Soit la suite de fonctions (fn )n définies sur R+ par :
si
0 x ∈ [0, n]
si
x−n x ∈ [n, n + 1]
fn (x) =
n+2−x si x ∈ [n + 1, n + 2]
si x ∈ [n + 2, +∞[.
0
La suite (fn )n converge simplement vers 0, mais pour tout n ∈ N, fn (n + 1) = 1 : ainsi la convergence n’est pas
uniforme.
Remarque 9.14 :
La convergence uniforme est la convergence de l’espace vectoriel normé (B(A, K), k · k∞ ).
Remarque 9.16 :
1. Remarquons que (B(A), k · k∞ ) est un EVN. Supposons que A est compact, auquel cas C 0 (A) ⊂ B(A).
Le théorème s’interprète ainsi : lorsque A est compact, le sous-espace C 0 (A, K) est une partie fermée de l’espace
(B(A), k · k∞ ).
2. Plus généralement, il suffit que la suite de fonctions continues (fn )n converge uniformément sur tout compact
pour que sa limite soit continue.
Si pour tout n ∈ N la fonction fn admet une limite bn en a, alors la suite (bn )n converge vers b ∈ K et f admet b
pour limite en a :
lim lim fn (x) = lim lim fn (x) .
x→a n→+∞ n→+∞ x→a
En résumé : si fn CU vers f et si pour tout n, lim fn = bn , alors lim lim fn = lim lim fn .
a a n n a
Remarque 9.18 :
Si A est une partie de R contenant un intervalle de la forme [c, +∞[ ou ] − ∞, c], alors ce résultat s’étend au cas
où chaque fonction fn admet une limite en +∞ ou −∞.
On peut étendre aux séries de fonctions certaines propriétés des suites de fonctions :
Proposition 9.20 : extension aux séries de fonctions des propriétés précédentes
X
1. La convergence uniforme implique la convergence simple : si la série de fonctions un converge uniformément
X n
sur A, alors la série numérique un (x) converge pour tout x ∈ A.
n
2. La somme d’une série de fonctions continues qui converge uniformément est continue.
3. La somme d’une série de fonctions continues qui converge uniformément sur tout compact est continue.
X
4. Si la série de fonctions un converge uniformément et si chaque fonction un admet une limite `n en un point
X n
a ∈ A, alors la série `n converge et :
n
+∞
X +∞
X
lim un (x) = lim un (x).
x→a x→a
n=0 n=0
Remarque 9.21 :
La convergence uniforme de la série de fonctions un équivaut à la convergence uniforme de la suite des sommes
P
partielles (Sn ). Elle implique donc la convergence uniforme vers 0 du terme général un .
Dans la pratique : pour montrer qu’une série de fonctions ne converge pas uniformément, il suffit de trouver une
suite (xn ) de A telle que un (xn ) ne converge pas vers 0.
X
Une série de fonctions un définies sur A et à valeurs dans K est dite normalement convergente lorsque la série
X n
kun k∞ converge.
n
Remarque 9.23 :
La série kun k∞ étant à termes positifs, il suffit pour qu’elle converge que ses sommes partielles soient majorées.
P
Il suffit donc qu’il existe une série majorante αn , c’est-à-dire telle que pour tout n ∈ N : kun k∞ ≤ αn qui
P
converge.
Exemple 9.24 :
X x e−nx
La série de fonctions converge normalement sur R+ car pour tout x ≥ 0 :
n
n
x e−nx n x e−nx 1
= 2
≤ 2 (car ue−u ≤ 1).
n n n
P 1
et la série converge.
n2
Remarque 9.26 :
La réciproque est fausse comme le montre l’exemple suivant.
Exemple 9.27 :
X (−1)n
• Pour tout x ∈ R, la série est semi-convergente, d’après le critère spécial des séries alternées.
n
x2 + n
(−1)n
1 n→+∞ 1 P1
• La convergence pour x fixé n’est pas absolue, car 2
=
2
∼ et diverge. Ceci prouve
x +n x
+ n n n
(−1)n
1
que la série de fonctions ne converge pas normalement ; d’ailleurs
x 7→ x2 + n
= n .
∞
• Cependant cette série converge uniformément sur R, car le reste d’ordre n d’une série vérifiant le critère spécial
des séries alternées est majoré en valeur absolue par le premier terme négligé, donc tend vers 0 uniformément.
Remarque 9.28 :
Le dernier point de la remarque donne une méthode très efficace pour prouver la convergence uniforme de
certaines séries de fonctions vérifiant le CSSA.
X
Plus précisément, soit fn une série de fonctions vérifiant le CSSA et telle que |fn | ≤ αn avec (αn )n suite réelle
X n
de limite nulle. Alors fn converge uniformément.
n
En effet pour tout x, |Rn (x)| ≤ |fn+1 (x)| ≤ αn+1 donc kRn k∞ ≤ αn+1 .
Les normes sur F étant équivalentes, les normes ainsi définies dans B(A, F ) sont équivalentes.
On peut étendre aux suites et séries d’applications de A dans F les résultats suivants :
Proposition 9.29 : définition
1. Une suite (fn )n d’applications de A dans F converge simplement lorsque pour tout x ∈ A la suite (fn (x))n
converge dans F .
La suite (fn )n converge uniformément vers f lorsque la suite (kfn − f k∞ )n converge vers 0.
2. La convergence uniforme des suites de fonctions implique la convergence simple, mais la réciproque est fausse.
X X
3. Une série un d’applications de A dans F converge simplement lorsque pour tout x ∈ A la série un (x)
n n
converge.
X
La série un converge uniformément lorsque la suite des restes d’ordre n converge uniformément vers 0.
n
X X
La série un converge normalement lorsque la série kun k∞ converge.
n n
4. La convergence normale des séries de fonctions implique la convergence uniforme et la convergence absolue en
tout point de A, mais les réciproques sont fausses.
5. La limite uniforme d’une suite d’applications continues sur A est continue sur A. En particulier, la somme d’une
série uniformément convergente d’applications continues est continue.
6. On peut échanger limite en un point et limite d’une suite uniformément convergente, ou limite en un point et
somme d’une série uniformément convergente.
9.3.2 Exemples
Soit A une algèbre normée unitaire de dimension finie et B(0, 1) ⊂ A la boule ouverte de centre 0 de rayon 1.
Alors :
1. L’application B(0, 1) → A, u 7→ (e − u)−1 , somme de la série de fonctions continues fn : u 7→ un qui converge
normalement sur tout compact de la boule B(0, 1), est continue sur B(0, 1).
1 n
2. L’application A → A, u 7→ exp(u), somme de la série de fonctions continues gn : u 7→ u qui converge
n!
normalement sur tout compact de A, est continue sur A tout entier.
Il existe alors une suite finie strictement croissante σ = (xi )i∈[[0,n]] : a = x0 < x1 < · · · < xn = b, telle que f soit
constante sur chaque intervalle ouvert ]xi , xi+1 [ (les valeurs prises par f aux points xi n’ont pas d’importance).
Une telle suite est appelée subdivision de [a, b] adaptée à la fonction en escalier f .
Remarque 9.31 :
• Cette subdivision n’est pas unique : certains points de subdivision peuvent être retirés sans nuire à la définition,
et il est toujours possible d’ajouter arbitrairement des points de subdivision.
• Toute subdivision contenant une subdivision adaptée à f est adaptée à f .
• Cf. le cours de Sup pour plus de détails.
Remarque 9.33 :
On montre facilement à l’aide de cette proposition que l’ensemble des fonctions en escalier sur [a, b] est un sous-
espace vectoriel de B([a, b], F ), noté E([a, b], F ) (une fonction en escalier est bornée).
Définition 9.34 : fonction en escalier sur R
Plus généralement, on dit qu’une fonction f : R → F est en escalier sur R lorsqu’elle est en escalier sur tout
segment de R.
L’ensemble des fonctions en escalier sur R est un sous-espace vectoriel de B(R, F ), noté E(R, F ).
Remarque 9.35 :
Il est clair également que si f est en escalier sur [a, b], alors x 7→ kf (x)k est aussi en escalier sur [a, b].
Remarque 9.39 :
Comme pour les fonctions en escalier, on montre facilement que l’ensemble des fonctions continues par morceaux
sur [a, b] est un sous-espace vectoriel de B([a, b], F ), noté CM([a, b], F ).
Définition 9.40 : fonction vectorielle continue par morceaux sur un intervalle
Plus généralement, on dit qu’une fonction f est continue par morceaux sur un intervalle I de R lorsque sa restriction
à tout segment de I est continue par morceaux.
L’ensemble des fonctions continues par morceaux sur I est un sous-espace vectoriel de F(R, F ), noté CM(I, F ).
Exemple 9.41 :
Les fonctions inverse sur R∗ et identité sur R sont continues par morceaux.
Remarque 9.42 :
Il est à noter qu’une fonction continue par morceaux sur un intervalle quelconque n’est pas toujours bornée sur cet
intervalle.
Considérer par exemple la fonction identité sur R.
9.4.3 Approximation uniforme des fonctions continues par morceaux par des fonctions
en escalier
Théorème 9.43 : E([a, b], F ) est dense dans C([a, b], F )
Toute fonction continue sur [a, b] et à valeurs dans F est limite uniforme d’une suite de fonctions en escalier sur
[a, b].
Ce résultat peut être étendu aux fonctions continues par morceaux sur [a, b] :
Corollaire 9.44 : E([a, b], K) est dense dans CM([a, b], K)
Toute fonction continue par morceaux sur [a, b] est limite uniforme d’une suite de fonctions en escalier sur [a, b].
9.4.4 Approximation uniforme des fonctions continues par des fonctions affines par
morceaux
Soit f une fonction définie sur [a, b] à valeurs dans un espace vectoriel normé F de dimension finie.
Définition 9.45 : fonction vectorielle affine par morceaux sur un segment
On dit que f est affine par morceaux lorsqu’il existe une subdivision σ = (xi )i∈[[0,n]] de [a, b] telle que la restriction
de f à chaque intervalle fermé [xi , xi+1 ] soit affine sur cet intervalle.
Théorème 9.46 : AM([a, b], K) est dense dans C([a, b], K)
Toute fonction continue sur [a, b] est limite uniforme d’une suite de fonctions affines par morceaux sur [a, b].
9.4.5 Approximation uniforme des fonctions continues par des fonctions polynomiales
Conformément au programme nous admettrons les deux théorèmes suivants, dus à Karl Weierstrass :
Théorème 9.47 : premier théorème de Weierstrass
Toute fonction continue sur [a, b], à valeurs réelles ou complexes, est limite uniforme d’une suite de fonctions
polynomiales sur [a, b].
Définition 9.48 : polynôme trigonométrique
On appelle polynôme trigonométrique toute combinaison linéaire de fonctions de la forme x 7→ eikωx (ou x → 7
2π
cos kωx et x 7→ sin kωx), où k est un entier naturel et ω = .
T
Théorème 9.49 : deuxième théorème de Weierstrass
Toute fonction continue sur R, à valeurs réelles ou complexes, T -périodique est limite uniforme d’une suite de
polynômes trigonométriques sur R.
Remarque 9.50 :
Les séries de Fourier, vues en École d’ingénieur, donnent une façon d’obtenir une suite de polynômes trigonomé-
triques convergeant uniformément vers une fonction continue périodique, de classe C 1 par morceaux.
Elles sont étudiées dans les Écoles d’ingénieur.
En particulier si f est une fonction à valeurs complexes alors f est dérivable en t0 si et seulement si sa partie réelle et
sa partie imaginaire sont dérivables en t0 .
Définition 10.3 : dérivée à droite, à gauche
La fonction f admet une dérivée à droite (resp. dérivée à gauche) en t0 si sa restriction à [t0 , +∞[ (resp. ] − ∞, t0 ])
est dérivable en t0 .
Exemple 10.4 :
La fonction valeur absolue f = | · | est dérivable en tout point de R∗ , avec f 0 (x) = 1 si x > 0 et f 0 (x) = −1 si
x < 0. Elle est de plus dérivable à gauche et à droite en 0, avec fg0 (0) = −1 et fd0 (0) = 1.
105
10.1. DÉRIVATION DES FONCTIONS VECTORIELLES MP 2022-23
Si f est dérivable en tout point de I, on dit qu’elle est dérivable sur I. De plus, dans ce cas, l’application de I dans
df
E : t 7→ f 0 (t) est appelée fonction dérivée de f , et notée f 0 , ou D(f ), ou (cette notation est liée au contexte et
dt
présuppose que l’on désigne la variable par la lettre t).
Proposition 10.6 : dérivation sur un sous-intervalle
Soit f une application définie sur un intervalle I de R et à valeurs dans un espace vectoriel normé E : f : I → E.
1. Soit J un sous-intervalle de I.
Si f est dérivable sur I, alors f|J est dérivable sur J.
2. Réciproquement, supposons J est ouvert dans I.
Si f|J est dérivable sur J, alors f est dérivable en tout point de J.
(αf + βg)0 (a) = αf 0 (a) + βg 0 (a) resp. D(αf + βg) = αD(f ) + βD(g).
Remarque 10.10 :
On en déduit que l’ensemble des applications de I dans E dérivables sur I (resp. C 1 sur I) est un K-espace vectoriel
noté D1 (I, E) (resp. C 1 (I, E)) et que l’application f 7→ f 0 (a) est linéaire sur cet espace.
(u ◦ f )0 = u ◦ f 0 .
Exemple 10.13 :
Soit E est un espace vectoriel euclidien, de produit scalaire ( · | · ). Alors pour toutes fonctions f et g dérivables sur
un intervalle I de R à valeurs dans E, la fonction (f |g) est dérivable, et :
(f |g)0 = (f 0 |g) + (f |g 0 ).
0 (f |f 0 )
kf k2 = .
kf k2
En particulier, si kf k2 est constant sur I, alors (f |f 0 ) = 0 : le vecteur vitesse est orthoradial. Par exemple, si f est deux
fois dérivable et kf 0 k constant (mouvement uniforme), alors (f 0 |f 00 ) = 0 (l’accélération est orthogonale à la vitesse).
Remarque 10.14 :
Le théorème se généralise à une application multilinéaire : par exemple, si f1 , . . . , fn sont des fonctions dérivables
sur un intervalle I de R à valeurs dans un espace vectoriel normé E de dimension n muni d’une base B, alors la fonction
detB (f1 , . . . , fn ) est dérivable et :
10.1.5 Théorèmes généraux pour les fonctions à valeurs réelles — rappels de Sup
Il s’agit ici de rappels. On renvoie au cours de première année pour les démonstrations, qui sont à savoir !
Proposition 10.15 : dérivée et extremum — rappel de Sup
Soit f une fonction définie sur I et a ∈ I qui n’est pas une borne de I.
Si f présente en a un extremum local, et si f est dérivable en a, alors f 0 (a) = 0.
Remarque 10.16 :
1. Attention, la réciproque est fausse ! L’annulation de la dérivée n’implique pas la présence d’un extremum.
2. Attention à l’hypothèse ! Si on n’est pas sur un ouvert, alors l’existence d’un extremum n’implique pas l’annulation
de la dérivée.
Exemple 10.17 :
1. La fonction x 7→ x3 est de classe C 1 sur l’ouvert R de R, de dérivée nulle en 0, mais n’admet pas d’extremum
en 0.
2. La fonction x 7→ x est de classe C 1 sur [1, 2] (qui n’est pas ouvert), possède des extrema en 1 et en 2, mais sa
dérivée ne s’annule ni en 1 ni en 2.
On peut également paramétrer le segment [a, b] en posant h = b − a, de sorte que [a, b] = {a + th, t ∈ [0, 1]}. Le
théorème des accroissements finis s’écrit alors
Applications du TAF :
Soit f une application continue d’un intervalle I de R dans R (sauf pour la dernière application),
◦
dérivable sur l’intérieur I de I.
• L’application f est croissante (resp. décroissante) sur I si et seulement si f 0 ≥ 0 (resp. f 0 ≤ 0) sur
◦
I.
◦
• f est strictement monotone sur I si et seulement si f 0 est de signe constant sur I et {x ∈ I, f 0 (x) 6= 0}
est dense dans I.
◦
• Si k ∈ R+ , alors f est k-lipschitzienne sur I si et seulement si |f 0 | ≤ k sur I .
• Soit f : I → E une application à valeurs dans un espace vectoriel normé E. f est constante sur I
◦
si et seulement si f 0 = 0 sur I .
La démonstration de ce résultat se ramène au cas des fonctions numériques par passage aux composantes dans
une base. Pour les fonctions à valeurs complexes, il s’obtient par considération de la partie réelle et de la partie
imaginaire.
L’ensemble des fonctions de classe C k sur I (k ∈ N ∪ {+∞}) à valeurs dans E est un espace vectoriel, noté C k (I, E).
Si de plus E = K (R ou C), C k (I, E) est même une algèbre : la dérivée k-ième d’un produit est donnée par la
formule de Leibniz :
k
X k (i) (k−i)
(f g)(k) = f g .
i=0
i
On peut en déduire l’intégrale d’une fonction continue par morceaux, sachant qu’elle est limite uniforme de fonctions
en escalier :
Théorème 10.29 : construction de l’intégrale d’une fonction continue par morceaux sur un segment
Soit f une fonction continue par morceaux sur [a, b] à valeurs dans un espace vectoriel normé E de dimension
! finie.
Z
Si (ϕn )n est une suite de fonctions en escalier convergeant uniformément vers f , alors la suite ϕn est
[a,b]
n
convergente. De plus sa limite ne dépend pas de la suite choisie.
Voici maintenant une propriété valable lorsque E est un espace réel ou complexe sans mention de dimension,
démontrée dans le cadre des espaces vectoriels normés (chapitre 3) :
Proposition 10.32 : inégalité de Cauchy-Schwarz
Soit f et g continues par morceaux sur [a, b], à valeurs un espace vectoriel normé E sur R ou C. Alors :
s s
Z b Z b Z b
2 2
kf (x)k × kg(x)k dx ≤ kf (x)k dx × kg(x)k dx.
a a a
Le fameux « cas d’égalité » n’est valable que dans le cas de fonctions continues (pas seulement continues par mor-
ceaux).
Sans refaire la démonstration, apportons quelques précisions. Dans cette proposition, on utilise l’application ( · | · ) :
Rb
(ϕ, ψ) 7→ a ϕ(t)ψ(t)dt, pour ϕ et ψ continues par morceaux et à valeurs dans R. Cette application est un produit
scalaire quand on la restreint à C([a, b], R). Ici on l’applique aux fonctions kf k : t 7→ kf (t)k et kgk, qui sont bien à
valeurs réelles, alors que f et g sont à valeurs vectorielles.
Lorsque l’espace vectoriel E est de dimension finie on conserve quelques propriétés supplémentaires. Le cas le
plus simple est lorsqu’on peut se ramener au cas des fonctions à valeurs scalaires (vu en Première Année) par passage
aux coordonnées dans une base. Par exemple la convergence des sommes de Riemann :
Théorème 10.33 : convergence des sommes de Riemann
Soit f une fonction continue sur un segment [a, b] (a < b) à valeurs dans un espace vectoriel normé E de dimension
finie. Pour n ∈ N∗ , soit Rn la somme de Riemann de f définie par :
n
b−a X b−a
Rn = f a+k .
n n
k=1
Z b
Alors la suite (Rn )n≥1 des sommes de Riemann converge vers f (t)dt :
a
b n
b−a X b−a
Z
f (t)dt = lim f a+k .
a n→+∞ n n
k=1
Deux autres exemples du même tonneau seront vus plus loin : intégration des développements limités (vectoriels),
formule de Taylor-Young (vectorielle).
La majoration de la norme d’une intégrale nécessite une nouvelle démonstration :
Théorème 10.34 : inégalité triangulaire généralisée (ou inégalité de la moyenne)
Soit f une fonction continue par morceaux sur [a, b] à valeurs dans un espace vectoriel normé E de dimension finie.
Alors :
Z
Z
f
≤ kf k ≤ (b − a)kf k∞ .
[a,b]
[a,b]
Remarque 10.36 :
ATTENTION A BIEN PRÉCISER LA CONTINUITÉ DE f .
Proposition 10.37 : TFCI2
Soit u et v deux applications de classe C 1 d’un intervalle J dans R et f une application continue d’un intervalle I
dans E. On suppose que u(J) ⊂ I et v(J) ⊂ I.
Z v(x)
Alors la fonction G : J → E, x 7→ f (t)dt est de classe C 1 et :
u(x)
Remarque 10.38 :
extension aux fonctions continues par morceaux.
Soit f une application continue par morceaux d’un intervalle I dans E et a ∈ I. Alors, l’application
Fa : I → E
Z x
x →
7 f (t)dt
a
est continue sur I. En tout point x0 de I qui n’en est pas un plus petit élément, resp. un plus grand élément, Fa admet
une dérivée à gauche, resp. à droite, qui vaut :
(Fa )0g (x0 ) = lim− f (x) resp. (Fa )0d (x0 ) = lim+ f (x) .
x→x0 x→x0
Remarque 10.40 :
extension aux fonctions continues par morceaux
Dans le cas où f est simplement continue par morceaux, il est conseillé de se ramener au cas précédent en considérant
une subdivision de ϕ([α, β]).
Du TFCI, on peut déduire une démonstration très économique de l’inégalité des accroissements finis, pour les fonctions
de classe C 1 :
Corollaire 10.41 : inégalité des accroissements finis pour les fonctions de classe C 1
Soit f une fonction définie sur un intervalle I à valeurs dans un espace vectoriel normé E de dimension finie. Pour
tout (a, b) ∈ I 2 , supposons que :
• f est continue sur [a, b] ;
• f est de classe C 1 sur ]a, b[ ;
• ∃k ∈ R, ∀t ∈]a, b[, kf 0 (t)k ≤ k.
Alors : kf (b) − f (a)k ≤ k|b − a|.
Alors, au voisinage de a :
kf (x) − f (a)k = o (|g(x) − g(a)|) .
C’est encore vrai lorsque u et v sont seulement continues sur I et de classe C 1 par morceaux sur I.
Remarque 10.46 :
Lors d’une intégration par parties, on précisera toujours la classe des fonctions qui interviennent sur l’intervalle de
travail contenant les bornes d’intégration.
Théorème 10.47 : formule de Taylor avec reste intégral
Soit f ∈ C n (I, E), de classe C n+1 par morceaux sur I. Soit a ∈ I.
Alors pour tout point x ∈ I, on a :
n x
(x − a)k (x − t)n (n+1)
X Z
f (x) = Tn (x) + Rn (x) avec Tn (x) = f (k) (a) et Rn (x) = f (t)dt.
k! a n!
k=0
continue par morceaux sur le segment [a, b] (ou [b, a]), elle y admet une borne supérieure M . Il vient alors :
n
(b − a)k (k)
(b − a)n+1
X
f (b) − f (a) ≤ M (n + 1)! .
k!
k=0
Remarque 10.49 :
1. La formule de Taylor avec reste intégral, l’inégalité des accroissements finis, l’inégalité de Taylor-Lagrange, sont
des formules globales, permettant des majorations explicites et quantitatives (par exemple majorations d’erreurs).
2. Au contraire, la formule de Taylor-Young est locale et qualitative.
Remarque 10.53 :
La réciproque est fausse : la convergence en moyenne n’implique pas la convergence uniforme, ni même la conver-
gence simple !
Exemple 10.54 :
La suite de fonctions (fn )n définie sur [0, 1] par : fn (x) = xn converge en moyenne vers la fonction nulle (car
1
kfn − 0k1 = ) mais cette convergence n’est pas uniforme (car kfn − 0k∞ = 1), ni même simple pour x = 1 (car
n+1
fn (1) − 0 = 1).
Remarque 10.56 :
1. Il est important de noter que ce résultat ne subsiste pas si la convergence n’est pas uniforme. Soit par exemple
la fonction fn définie sur [0, 1] pour n ∈ N∗ par :
1
2n2 x si x ∈ 0, ,
2n
1 1
fn (x) = 2n − 2n2 x si x ∈ , ,
2n n
1
si x ∈
0 ,1 .
n
La suite (fn )n converge simplement vers Zla fonction nulle, mais la convergence n’est pas uniforme car kfn −0k∞ =
1
n. On remarque que pour tout n ∈ N∗ , fn = 6= 0.
[0,1] 2
2. La convergence uniforme n’est ici suffisante que parce que [a, b] est un segment (compact suffit). Ce résultat ne
s’appliquera pas aux intégrales sur un intervalle quelconque que nous verrons au chapitre 12 « intégration sur
un intervalle quelconque ».
Remarque 10.58 :
Ceci signifie que pour intégrer la somme de la série fn , il suffit d’intégrer terme à terme et de sommer.
P
Exemple 10.59
Z 1 :
Calculer xx dx sous forme de la somme d’une série.
0
Remarque 10.60 :
Soit fn une série de fonctions de C([a, b], E) qui converge normalement sur [a, b]. Alors :
P
Z +∞
Z
+∞
Z +∞
X
X
X
fn
≤ fn
≤ kfn k,
[a,b]
[a,b]
[a,b]
n=0 n=0 n=0
et comme la série kfn k converge uniformément sur [a, b], on peut échanger l’intégrale et la somme :
P
Z
+∞
X
+∞ Z
X
f ≤ kfn k.
n
[a,b]
[a,b]
n=0 n=0
Exemple 10.61 :
+∞
2π X
teint
Z
Majorer l’intégrale : I = dt.
0 n=1
n2
Il existe un autre moyen de démontrer que limite/somme et intégrale sont échangeables, en appliquant ce que l’on
appelle le théorème de convergence dominée. Ce théorème existe tant pour les suites de fonctions que pour les séries.
Ceci dit, son intérêt se révèle réellement lorsqu’on cherche à intégrer sur un intervalle quelconque c’est-à-dire pas
nécessairement un segment. Nous reviendrons donc sur les deux énoncés de convergence dominée dans le chapitre 12
(« intégration sur un intervalle quelconque »).
Nous donnons ici une version allégée de ces théorèmes, dans le cadre de l’intégration sur un segment.
Théorème 10.62 : théorème de convergence dominée pour une suite de fonctions, version « segment »
Soit (fn )n une suite de fonctions à valeurs réelles ou complexes définies sur un segment [a, b]. On suppose que :
• pour tout n ∈ N, la fonction fn est continue par morceaux sur [a, b] (et donc intégrable !) ;
• la suite (fn )n converge simplement sur [a, b] vers une fonction f continue par morceaux (et donc intégrable !) ;
• il existe une fonction ϕ continue par morceaux positive sur [a, b] (et donc intégrable !) telle que pour tout n ∈ N :
|fn | ≤ ϕ (hypothèse de domination).
Z b Z b
Alors f (t)dt = lim fn (t)dt, ou encore
a n a
Z b Z b
lim fn (t)dt = lim fn (t)dt.
a n→+∞ n→+∞ a
XZ b
• La série |un (t)|dt converge.
n∈N a
Z b +∞ Z
X b
Alors : S(t)dt = un (t)dt, ou encore :
a n=0 a
Z +∞
bX +∞ Z
X b
un (t)dt = un (t)dt.
a n=0 n=0 a
1. La norme hermitienne associée à ce produit scalaire est appelée norme de la convergence en moyenne quadratique :
Z ! 12
2
∀f ∈ C([a, b], C), kf k2 = |f | .
[a,b]
Z
2. Une suite de fonctions (fn )n converge en moyenne quadratique vers une fonction f lorsque |fn −f |2 converge
[a,b]
vers 0.
finie E.
Pour tout n ∈ N on note Fn la primitive de fn qui s’annule en un point a de I.
Si la série fn converge uniformément vers s sur tout segment inclus dans I, alors la série Fn converge
P P
Exemple 10.68 :
+∞
X 1
On sait que : ∀x ∈] − 1, 1[, xn = . Cette série converge normalement, donc uniformément, sur tout
n=0
1−x
segment (compact suffit) de ] − 1, 1[. On en déduit en calculant les primitives s’annulant en 0 :
+∞ n
X x
= − ln(1 − x).
n=1
n
+∞ +∞
!0 +∞
X X X
Alors fn est de classe C sur I et :
1
fn = fn0 .
n=0 n=0 n=0
Remarque 10.71 :
Ceci signifie que pour dériver la somme de la série fn , il suffit de dériver terme à terme et de sommer, à
P
est aussi normalement, donc uniformément, convergente sur tout segment inclus dans ] − 1, 1[. On en déduit que
f est de classe C 1 et que :
+∞
X 1
f 0 (x) = (−x2 )n = .
n=0
1 + x2
c’est-à-dire : e0a = a ea = ea a.
+∞ +∞
!(k) +∞
X X X
Alors fn est de classe C sur I et :
k
fn = fn(k) .
n=0 n=0 n=0
Exemple 10.75 :
+∞
1 X
En dérivant k fois l’égalité = xn sur ] − 1, 1[, on obtient (en posant n − k = p) :
1−x n=0
+∞ +∞
1 X
n−k
X p+k p
= n(n − 1) · · · (n − k + 1)x = x .
(1 − x)k+1 p=0
k
n=k
10.4.1 Définitions
Définition 10.76 : courbe paramétrée
Soit f : I → E une fonction vectorielle de classe C k , c’est-à-dire k fois dérivable et dont toutes les dérivées sont
continues.
On appelle courbe paramétrée la donnée du couple (I, f ).
L’ensemble f (I) = {f (t) ; t ∈ I} est appelé support de la courbe ou trajectoire.
Remarque 10.77 :
En interprétant le paramètre t comme le temps, on peut donc voir une courbe paramétrée comme la description
d’un mouvement. Il ne s’agit pas d’une courbe au sens géométrique (ceci n’étant que le support).
En fait le point M (t), t ∈ I, du plan se déplace sur le support de la courbe. À l’instant t, la vitesse instantanée est
donnée par →−v (t) = f 0 (t) et l’accélération instantanée par →
−
a (t) = f 00 (t).
Remarque 10.80 :
Le vecteur →
−
u (t) est un vecteur directeur de la sécante à la courbe en M (t) et M (t0 ).
Théorème 10.81 : tangente en un point régulier
→
−
Soit M (t0 ) un point régulier d’une courbe paramétrée (I, f ) de classe C 1 , c’est-à-dire f 0 (t0 ) 6= 0 .
Alors la courbe possède une tangente au point M (t0 ) dirigée par le vecteur f 0 (t0 ).
Remarque 10.82 :
1. La courbe définie sur R par
−1/t2
e , 0 si t > 0,
f (t) = (0,
0) si t = 0,
0, e−1/t2
si t < 0,
est de classe C ∞ mais ne possède pas de tangente en l’origine M (0). En effet si t > 0 les vecteurs directeurs de
la tangente sont de la forme →
−
u + (t) = (at , 0) et si t < 0 ils sont de la forme →
−
u − (t) = (0, bt ) ; et ces deux vecteurs
ne peuvent pas tendre vers un même vecteur non-nul.
→
−
2. Il se peut que f 0 (t0 ) = 0 mais que malgré tout la courbe admette une tangente en M (t0 ). Par exemple considérer
f (t) = (t2 , t2 ).
On peut malgré tout effectuer l’étude locale complète en un tel point, à l’aide des développements limités, mais
ceci est hors-programme. Un tel point est dit stationnaire.
Voyons déjà pour l’existence d’une tangente en un point stationnaire, quand l’arc est de classe C k :
Proposition 10.83 : tangente à un arc paramétré de classe C k
Soit (I, f ) un arc paramétré de classe C k avec k ≥ 1. Soit t0 ∈ I. On suppose que :
Alors l’arc paramétré (I, f ) admet au point de paramètre t0 une tangente dirigée par f (k) (t0 ).
Remarque 10.84 :
Par exemple dans le plan, pour M (t0 ) de coordonnées (x0 , y0 ) et f (t0 ) de coordonnées (x0 , y0 ), on obtient
0 0 0
x − x x0
0
= 0, ou encore (x − x0 )y00 − (y − y0 )x00 = 0.
0
y − y0 y00
En particulier :
Définition 10.86 : droite asymptote à une courbe paramétrée
On dit que la droite D d’équation cartésienne ax + by + c = 0 est asymptote à la courbe au voisinage de t0 lorsque
t→t
d(M (t), D) −→0 0. Ceci est équivalent à :
t→t
ax(t) + by(t) + c −→0 0.
t→t
On peut généraliser à d’autres courbes asymptotes, comme des paraboles asymptotes (ax(t)2 + bx(t) + c − y(t) −→0 0),
etc.
Remarque 10.87 :
L’étude générale des points stationnaires et des branches infinies (en particulier des droites asymptotes), est offi-
ciellement hors-programme.
t t3
Considérons la courbe f de coordonnées (x, y) définies par x(t) = , y(t) = .
1 − t4 1 − t4
2. Pour tout t 6= ±1, on a x(−t) = −x(t) et y(−t) = −y(t) ; ainsi la courbe est symétrique par rapport à l’origine.
On restreint l’étude à R+ ∩ Df = [0, 1[∪]1, +∞[.
1 1
De plus pour t 6= 0 on a x = −y(t) et y = −x(t) ; ainsi la courbe est symétrique par rapport à la
t t
1
seconde bissectrice. L’application ϕ : t 7→ envoie ]0, 1[ sur ]1, +∞[ donc on restreint l’étude à [0, 1[.
t
Une fois l’étude sur [0, 1[ achevée, il faudra effectuer la symétrie par rapport à la seconde bissectrice puis par
rapport à l’origine afin d’obtenir le tracé complet de la courbe.
t 0 1
x0 (t) 1 + +oo
y 0 (t) 0 + +oo
+∞
x
0
+∞
y
Séries entières
série entière de la variable réelle x de coefficients (an )n∈N la série (de fonctions) an x .
n
Remarque 11.2 :
1. Un polynôme est une série entière dont les coefficients sont nuls à partir d’un certain rang.
2. Les sommes partielles d’une série entière sont des polynômes.
3. La série entière an z n converge au moins pour z = 0 ; sa somme est alors a0 .
P
contenant 0.
Définition 11.4 : rayon de convergence d’une série entière
On appelle rayon de convergence de la série entière an z n la borne supérieure (dans R) de cet intervalle :
P
125
11.1. DÉFINITION ET CONVERGENCE MP 2022-23
• Si R = 0, quel que soit z non nul, la suite (an z n )n n’est pas bornée : la série an z n est grossièrement divergente.
P
• Si R = +∞ : la suite (an rn )n est bornée pour tout r ∈ R+ . Pour tout complexe z, il existe r ∈ R+ tel que
|z| < r : la série an z n est absolument convergente pour tout z ∈ C.
P
Exemple 11.6 :
X zn n
r
La série est absolument convergente pour tout z ∈ C, car pour tout r > 0 la suite converge vers
n! n! n
0 donc est bornée.
• Si 0 < R < +∞ :
B Pour tout z ∈ C tel que |z| < R, il existe un réel r strictement compris entre |z| et R tel que la suite (an rn )n
soit bornée : la série an z n est absolument convergente.
P
B Pour tout z ∈ C tel que |z| > R, la suite (an z n )n n’est pas bornée : la série an z n est grossièrement
P
divergente.
B Pour |z| = R, on ne peut rien dire a priori de la série an z n : elle peut être convergente (absolument ou
P
Remarque 11.9 :
Soit an z n une série entière et R son rayon de convergence.
P
Exemple 11.10 :
X zn
1. La série est semi-convergente pour z = −1 : son rayon de convergence est R = 1. Elle diverge pour z = 1.
n
X zn
2. La série converge absolument pour z = 1 : son rayon de convergence R est supérieur ou égal à 1 ; la suite
n n2
z
ne converge pas vers 0 dès que |z| > 1 : R ≤ 1. En définitive, R = 1. Comme elle converge absolument
n2 n
au point R, elle converge absolument sur tout le cercle de convergence.
zn zn n
≤ |z| : cette suite est bornée pour z = 2, mais elle ne converge pas vers 0,
X
3. :
(3 + (−1)n )n (3 + (−1)n )n 2n
donc R = 2. Comme la série diverge grossièrement pour z = 2, elle diverge grossièrement sur tout le cercle de
convergence.
an rn , converge}
P
R = sup { r ∈ R+ /
an rn , converge absolument}.
P
R = sup { r ∈ R+ /
Exemple 11.12 :
1. n (sin n)z : pour tout n ∈ N, | sin n| ≤ 1, donc R ≥ 1. Pour z = 1, le terme général ne tend pas vers 0 donc
n
P
R = 1.
n2 z n n2
2. : on sait que ∼ n, donc R = 1 d’après la proposition 11.8.
P
n
n + sin(n) n + sin(n)
• pour tout n ∈ N, an 6= 0 ;
an+1
• la suite
an
admet une limite ` dans R.
n
1
Alors le rayon de convergence de cette série entière est : R = . (En d’autres termes R = 0 si ` = +∞ et R = +∞ si
`
` = 0.)
Exemple 11.14 :
X n! n! an+1
1. n
z n . an = n 6= 0, et lim = e−1 , d’où R = e.
n n n→+∞ an
X n!
2. z 2n . Ici, la règle de d’Alembert ne peut pas s’appliquer directement, car les coefficients de rang impair
nn
sont nuls. Cependant, d’après l’exemple précédent, la série converge pour |z 2 | < e et diverge pour |z 2 | > e. Son
√
rayon de convergence est donc R = e.
Remarque 11.15 :
Dans le cas où certains coefficients de la série entière s’annulent, on parle de série lacunaire. Il est conseillé de
revenir à la règle de d’Alembert des séries numériques (en incluant la puissance de z dans le calcul) et de refaire la
démarche de la démonstration.
Exemple 11.16 : X 2
Déterminer le rayon de convergence R de la série entière n!z n .
Remarque 11.17 :
Attention, la réciproque du théorème est fausse.
an+1 1
Ce n’est pas parce qu’une série a pour rayon de convergence R que la suite converge et a pour limite .
an n R
En fait on n’est même pas assurés que cette suite converge. . .
Exemple 11.18 : nπ
La série entière z n a pour rayon de convergence 1, mais le quotient de deux termes consécutifs n’est
P
cos
3
1
pas de limite = 1.
1
X X X
Si z est un nombre complexe tel que |z| < min (R, R0 ), les deux séries an z n et bn z n convergent, donc (an +
n n n
bn )z n converge : R00 ≥ min (R, R0 ).
X X
• Supposons R < R0 : si z est un nombre complexe tel que R < |z| < R0 , alors an z n diverge et bn z n
X n n
converge, donc (an + bn )z n diverge : R00 = R = min (R, R0 ).
n
X X 1
• Si R = R0 , il se peut que R00 > min (R, R0 ) : par exemple, z n et( n − 1)z n ont toutes deux un rayon de
n n
7
convergence égal à 1, mais le rayon de convergence de leur somme est 7.
Conclusion :
Si R 6= R0 , R00 = min (R, R0 ).
Si R = R0 , R00 ≥ min (R, R0 ).
Mais on ne peut rien dire de plus précis, sauf au cas par cas.
+∞ X
n +∞
! +∞
!
X X X
|z| < min (R, R )0
=⇒ (aj bn−j )z n = an z n
bn z n
. (11.1)
n=0 j=0 n=0 n=0
On en déduit que le rayon de convergence du produit de Cauchy est supérieur ou égal à min (R, R0 ), mais l’égalité (11.1)
n’a de sens que dans le disque ouvert de rayon min (R, R0 ).
Attention : ici, même si R 6= R0 , on n’a pas nécessairement R00 = min (R, R0 ). Par exemple :
X X
zn : R = 1; 1−z : R0 = +∞; ( z n )(1 − z) = 1 : R00 = +∞.
n n
Mais l’égalité (11.1) n’a de sens ici que pour |z| < 1.
+∞ n
X z
∀z ∈ C exp(z) = .
n=0
n!
X zn X z 0n
En effectuant le produit de Cauchy de et , on obtient :
n
n! n
n!
+∞ +∞
X z 2n X z 2n+1
ch z = sh z = .
n=0
(2n)! n=0
(2n + 1)!
De même :
+∞ +∞
X z 2n 1 X z 2n+1
cos z = ch iz = (−1)n sin z = sh iz = (−1)n .
n=0
(2n)! i n=0
(2n + 1)!
Remarque 11.20 :
Attention : ce résultat n’implique pas la convergence normale de la série entière sur tout son disque de convergence.
Exemple 11.21 :
X 1
La série xn ne converge pas normalement vers sur ] − 1, 1[, car la différence
n
1−x
n
X 1 1 − xn+1 − 1 −xn+1
Rn (x) = xk − = =
1−x 1−x 1−x
k=0
+∞
X +∞
X
lim an xn = an Rn .
x→R
< n=0 n=0
point z0 du cercle limite de convergence, alors la restriction de sa somme au rayon [0, z0 ] est continue au point z0 .
Attention, ceci ne signifie pas que cette somme soit continue en z0 : un voisinage de z0 relatif au disque fermé de
convergence contient des points n’appartenant pas à ce rayon !
X
Alors la série entière nan xn−1 a le même rayon de convergence R, et si R > 0 :
n
+∞
!0 +∞
X X
n
∀x ∈] − R, R[, an x = nan xn−1 .
n=0 n=1
La somme de la série entière est donc de classe C ∞ sur ] − R, R[. La série entière est la série de Taylor de sa somme S :
S (n) (0)
∀n ∈ N, an = .
n!
Remarque 11.25 :
Pour montrer qu’une fonction est de classe C ∞ sur un intervalle ] − R, R[, il suffit de montrer que c’est la somme
d’une série entière de rayon de convergence supérieur ou égal à R.
Exemple 11.26 :
ln(1 − x) X −xn
La fonction f : x 7→ est la somme de la série entière , dont le rayon de convergence est 1. Elle
x n
n+1
peut donc être prolongée en 0 en une fonction de classe C ∞ sur ] − 1, 1[.
Remarque 11.27 :
+∞
X +∞
X
Si deux fonctions f : x 7→ an xn et g : x 7→ bn xn coïncident sur un voisinage de 0, alors pour tout n :
n=0 n=0
an = bn .
En effet on a f = g au voisinage de 0, donc f (n) = g (n) au voisinage de 0, d’où f (n) (0) = g (n) (0) pour tout n, puis
an = bn pour tout n.
+∞
! +∞
Z x X
n
X an n+1
∀x ∈] − R, R[ an t dt = x .
0 n=0 n=0
n+1
Exemple 11.29 :
+∞ +∞ n
X 1 X x
De xn = pour x ∈] − 1, 1[ , on déduit = − ln(1 − x) pour x ∈] − 1, 1[ .
n=0
1−x n=1
n
Nous avons vu que f est alors de classe C ∞ sur ] − r, r[ et que la série entière est sa série de Taylor :
+∞ (n)
X f (0) n
∀x ∈] − r, r[, f (x) = x .
n=0
n!
Remarque 11.31 :
Réciproquement, toute fonction de classe C ∞ sur ] − r, r[ n’est pas nécessairement développable en série entière. Sa
série de Taylor peut avoir un rayon de convergence nul, ou converger dans ] − r, r[ vers une fonction différente de f .
1
Par exemple, la fonction f : x 7→ e− x2 , prolongée en 0 par f (0) = 0, est de classe C ∞ sur R, mais sa série de Taylor
est la série nulle, de rayon de convergence infini : f n’est pas développable en série entière.
Pour prouver qu’une fonction de classe C ∞ est développable en série entière, il faut prouver que le reste de Taylor
converge vers 0, par exemple à l’aide de l’inégalité de Taylor-Lagrange.
Voyons une autre méthode pour obtenir le développement en série entière d’une fonction de classe C ∞ : à l’aide
d’une équation différentielle.
Exemple 11.32 :
Soit f la fonction définie sur R par : f (x) = earctan x . Démontrer que f est développable en série entière au voisinage
de 0.
Remarque 11.33 : ! !
X X
Si |an | ≤ |bn | pour tout n alors R an z n
≥R bn z n
.
n Xn X
En effet soit z tel que |z| < R = R ( n
). Alors bn z n converge. Or |an z n | ≤ |bn z n | donc an z n converge,
P
n bn z
n n
d’où R ( n an z n ) ≥ R ( n bn z n ).
P P
On en déduit :
+∞ +∞
X x2n X x2n+1
∀x ∈ R ch x = sh x =
n=0
(2n)! n=0
(2n + 1)!
+∞ +∞
X x2n X x2n+1
∀x ∈ R cos x = (−1)n sin x = (−1)n
n=0
(2n)! n=0
(2n + 1)!
+∞
1 X
De plus = (−1)n x2n pour x ∈] − 1, 1[ donne par intégration
1 + x2 n=0
+∞
X (−1)n 2n+1
arctan(x) = x pour x ∈] − 1, 1[.
n=0
2n + 1
+∞
X α(α − 1) · · · (α − n + 1) n
∀x ∈] − 1, 1[, (1 + x)α = x .
n=0
n!
Exemple 11.35 :
+∞
1 √ x x2 X (2n − 2)!
Pour α = : ∀x ∈] − 1, 1[, 1+x = 1+ − + ··· = 1 + (−1)n−1 2n−1 xn .
2 2 8 n=1
2 n!(n − 1)!
L’objet de ce chapitre est d’étendre la notion d’intégrale au cas des fonctions continues par morceaux sur un
intervalle I qui n’est pas un segment i.e. du type :
possède une limite en b. S’il en est ainsi, cette limite est notée :
Z b
f (t)dt.
a
Z b
Dans le cas contraire on dit que l’intégrale impropre f (t)dt diverge.
a
Proposition 12.2 : intégrale faussement impropre en b < +∞
Soit f une fonction continue par morceaux sur [a, b[ à valeurs complexes avec b < +∞. Lorsque f possède une limite
Z b
à gauche en b, elle se prolonge en une fonction fe continue par morceaux sur le segment [a, b]. L’intégrale f (t)dt est
a
alors convergente et
Z b Z b
f (t)dt = f˜(t)dt.
a a
Dans cette situation on dit souvent que l’intégrale est faussement impropre ou faussement généralisée en b.
135
12.1. INTÉGRALES IMPROPRES MP 2022-23
Exemple 12.3Z :
1
sin t
L’intégrale dt est faussement impropre en 0.
0 t
Proposition 12.4 : localisation, reste
Z b
Soit f une fonction continue par morceaux sur [a, b[ à valeurs complexes et c ∈]a, b[. L’intégrale impropre f (t)dt
Z b a
plication x 7→ f (t)dt étudiée dans la section 10.2.3 (primitive d’une fonction continue) du chapitre 10 (fonctions
a
vectorielles).
Proposition 12.7 : linéarité de l’intégrale (intervalle semi-ouvert)
Soit f et g deux fonctions continues par morceaux sur [a, b[ à valeurs dans C ; λ et µ deux complexes. On suppose
Z b Z b Z b
que les intégrales f (t)dt et g(t)dt convergent. Alors l’intégrale impropre (λf + µg) (t)dt converge et :
a a a
Z b Z b Z b
(λf + µg) (t)dt = λ f (t)dt + µ g(t)dt.
a a a
Remarque 12.9 :
Il existe de nombreux points communs entre les séries numériques et les intégrales sur [a, +∞[.
Attention, voici cependant une différence importante : contrairement aux séries, pour lesquelles il est nécessaire que
le terme général converge vers 0 pour que la série converge, l’intégrale d’une fonction positive peut être convergente
sans que cette fonction tende vers 0 en +∞.
Exemple 12.10 :
Considérons la fonction f telle que, pour tout n ∈ N∗ :
1
∀x ∈ n − 2 , n , f (x) = 1 + 2n2 (x − n) ;
2n
1
∀x ∈ n, n + 2 , f (x) = 1 − 2n2 (x − n) ;
2n
1 1
S
∀x ∈ R \ n − 2,n + 2 , f (x) = 0.
n∈N∗ 2n 2n
1 1 1
2 8 18
0 1 2 3 x
1
Z n+ 2n 2 1 1
Pour tout n ∈ N ,∗
f= 2
. Pour tout x ≤ n − 2 :
1
n− 2n 2
2n 2n
Z x n +∞
X 1 X 1
f ≤ ≤ .
0 2k 2 2k 2
k=1 k=1
Z +∞
Cette intégrale est majorée : l’intégrale f converge. Pourtant, pour tout n ∈ N∗ , f (n) = 1, si bien que f ne tend
0
pas vers 0 en +∞.
Proposition 12.11 : croissance de l’intégrale Z +∞
Soit f et g deux fonctions continues par morceaux sur [a, +∞[ telles que 0 ≤ f ≤ g. La convergence de g
Z +∞ Z +∞ Z +∞ a
0
1 2 3 4 5 x
-1
x bxc Z x
(−1)k+1
Z X
Remarquons que : ∀x ∈ [1, +∞[, f = + f.
0 k bxc
Z k=1
X (−1)k x 1 1
Or la série converge et f ≤ ≤ , qui tend vers 0 quand x tend vers +∞. Donc
k bxc bxc + 1 x
k
Z +∞
l’intégrale f converge. Mais :
0
Z x bxc
X 1
∀x ∈ [1, +∞[, |f | ≥
0 k
k=1
X1 Z +∞
et la série diverge, donc l’intégrale f n’est pas absolument convergente : la fonction f n’est pas intégrable
k 0
k
sur [0, +∞[.
1
12.2.2 Intégrabilité de x 7→ sur [1, +∞[
xα
Proposition 12.18 : nature de l’intégrale de Riemann en +∞
1
Soit α ∈ R. La fonction x 7→ α est intégrable sur [1, +∞[ si et seulement si α > 1. On a alors :
x
Z +∞
1 1
α
dt = .
1 t α−1
Remarque 12.19 :
1
Pour l’intégrabilité de la fonction x 7→ sur ]0, 1], voir le paragraphe 12.3.2.
xα
1
On utilisera fréquemment des comparaisons avec les fonctions x 7→ et x 7→ e−αx .
xα
Exemple 12.22 :
sin x | sin x| 1
1. La fonction x 7→ est intégrable sur [1, +∞[, car est majoré par 2 .
x2 x2 x
1 1
2. La fonction x 7→ n’est pas intégrable sur [2, +∞[, car elle est minorée par x 7→ .
ln x x
1
3. La fonction x 7→ x3 e−x est intégrable sur [0, +∞[, car elle est dominée en +∞ par x 7→ .
x2
1 1
4. La fonction x 7→ 4
est intégrable sur [0, +∞[, car elle est positive et équivalente en +∞ à 4 .
1+x x
√
x 1
5. La fonction x 7→ n’est pas intégrable sur [0, +∞[, car elle est positive et équivalente en +∞ à 1 .
1+x x2
2
6. La fonction x 7→ e−x est intégrable sur [0, +∞[, car elle est négligeable en +∞ devant e−x .
Remarque 12.23 :
Le théorème de comparaison ne parle que de l’intégrabilité de l’une ou l’autre des deux fonctions, c’est-à-dire de
la convergence absolue de leurs intégrales. Le résultat ne s’étend pas aux intégrales semi-convergentes. En effet, deux
fonctions équivalentes en +∞ peuvent avoir des intégrales de natures différentes (l’une semi-convergente et l’autre
divergente).
Exemple 12.24 :
Z +∞ Z +∞
(−1)bxc (−1)bxc
1
On peut prouver que dx est semi-convergente. Il s’ensuit que +√ dx est diver-
1 x 1 x x
Z +∞
1 (−1)bxc (−1)bxc 1
gente, puisque √ dx = +∞. Pourtant x 7→ et x 7→ + √ sont équivalentes en +∞.
1 x x x x
Exemple 12.26 :
Z 1 Z x
dt dt √
1. √ converge car, pour x ∈ [0, 1[, √ = 2(1 − 1 − x), qui tend vers 2 quand x tend vers 1. On
0 1−t Z 0 1−t
1
dt
peut écrire : √ = 2.
0 1−t
Z 1 Z 1
2. ln tdt converge car, pour tout x ∈]0, 1], ln tdt = x − x ln x − 1, qui tend vers −1 quand x tend vers 0. On
0 Z 1 x
Z b
Tout comme dans la proposition 12.2, si f possède une limite finie ` au point b, alors l’intégrale f converge et
a
on parle à nouveau d’intégrale faussement impropre en b.
Définition 12.27 : fonction intégrable sur [a,b[ ou sur ]a,b]
Soit f une fonction continue par morceaux de [a, b[ (resp. ]a, b]) dans K. On dit que f est intégrable sur [a, b[ (resp.
Z b
]a, b]), lorsque l’intégrale |f | est convergente.
a
Si f est une fonction continue par morceaux sur un intervalle I et a ∈ I, on dit que f est intégrable à droite (resp.
à gauche) en a s’il existe b ∈ I tel que f est intégrable sur ]a, b] (resp. sur [b, a[).
Remarque 12.28 :
Pour étudier l’intégrabilité de f en a à droite (resp. à gauche), on peut étudier celle de la fonction t 7→ f (a + t)
en 0 à droite (resp. celle de la fonction t 7→ f (a − t) en 0 à gauche). C’est un simple changement de variable affine,
cf. 12.41.
1
12.3.2 Intégrabilité en a de x 7→
|x − a|α
Proposition 12.29 : nature de l’intégrale de Riemann en a
1
Soit α ∈ R. La fonction x 7→ est intégrable en a si et seulement si α < 1.
|x − a|α
Exemple 12.30 :
1 1 1 1
1. La fonction x 7→ √ sin est intégrable sur 0, , car elle est dominée au voisinage de 0 par 1 .
x x π x2
sin x 1
2. La fonction x 7→ 2
n’est pas intégrable sur ]0, π], car elle est équivalente à en 0.
x x
Exemple 12.40 :
Z +∞
(−1)btc
Calculer I = dt.
1 t2
Z β Z b
f (t)dt = (f ◦ ϕ)(u) · ϕ0 (u) du.
α a
Remarque 12.42 :
Le programme précise que dans le cas des changements de variable usuels, on ne demandera pas de justifier les
hypothèses concernant la fonction ϕ.
Il est néanmoins peu probable que les « grands concours » abaissent leur niveau d’exigence. . .
Seul un changement de variable affine est faisable sans plus de justification !
Exemple 12.43 :
Z +∞ −x
e
Calculer I = dx sous forme d’une intégrale sur un segment.
1 x
Remarque 12.45 :
Le programme précise que pour les applications pratiques, on ne demandera pas de justifier les hypothèses de
régularité (f et g de classe C 1 ).
Il est néanmoins peu probable que les « grands concours » abaissent leur niveau d’exigence. . .
Exemple 12.46 :
Z 1
ln t
Calculer I = √ dt, en justifiant son existence.
0 1−t
N1 : CI 1 (I) → R Z
f 7→ N1 (f ) = |f |
I
Soit I un intervalle de R. L’ensemble des fonctions de carré intégrable sur I est un K-espace vectoriel, noté L2 (I).
Si de plus les fonctions f et g sont continues sur I, alors l’égalité est vérifiée si et seulement si les fonctions f et g sont
colinéaires.
Les fonctions continues et de carré intégrable sur un intervalle I à valeurs réelles constituent un sous-espace vectoriel
de C(I), que nous noterons CI 2 (I). À titre d’exercice, le lecteur pourra prouver que et ensemble est muni d’un produit
scalaire défini par Z
(f |g) = f g,
I
et que l’application :
N2 : CI 2 (I) → R
sZ
f 7→ N2 (f ) = f2
I
est une norme sur CI 2 (I), appelée norme de la convergence en moyenne quadratique. Z
Une suite de fonctions (fn )n converge en moyenne quadratique vers une fonction f lorsque (fn − f )2 converge
I
vers 0.
Corollaire 12.51 : continuité du produit scalaire sur CI 2 (I)
Le produit scalaire (f, g) 7→ (f |g) est une application continue de CI 2 (I)2 dans R.
Remarque 12.52 :
lien entre les normes k · k1 et k · k2
Contrairement au cas de l’intégration sur un segment, sur un intervalle quelconque la convergence pour la norme
infinie, la convergence en moyenne et la convergence en moyenne quadratique sont indépendantes.
Exemple 12.53 :
1
1. Considérons la suite de fonctions (fn )n définies sur [0, +∞[ par : ∀x ∈ [0, n], fn (x) = et ∀x ∈]n, +∞[,
n
fn (x) = 0.
1 1
On a kfn k∞ = , kfn k1 = 1, kfn k2 = √ .
n n
Ainsi (fn )n converge vers la fonction nulle sur R+ : simplement, pour la norme infinie, en moyenne quadratique,
mais pas en moyenne. Bilan : 2 et ∞ .
2. Hélas on ne peut pas trouver de suite de fonctions qui : converge simplement, pour la norme infinie, en moyenne,
et pas en moyenne quadratique.
En d’autres termes : sur R+ , la convergence en norme ∞ et en norme 1 impliquent la convergence en norme 2.
√
3. La suite de fonctions (fn )n définies sur [0, +∞[ par : fn (0) = n, fn ( n12 ) = 0, affine sur [0, n12 ], nulle après.
√ 1 1
On a kfn k∞ = n, kfn k1 = √ , kfn k2 = √ .
2n n 3n
Ainsi (fn )n converge vers la fonction nulle sur R∗+ : simplement, en moyenne, en moyenne quadratique, mais pas
pour la norme infinie. Bilan : 1 et 2 .
√
1 1
4. La suite de fonctions (fn )n définies sur [0, +∞[ par : ∀x ∈ 0, , fn (x) = n et ∀x ∈ , +∞ , fn (x) = 0.
n n
√ 1
On a kfn k∞ = n, kfn k1 = √ , kfn k2 = 1.
n
Ainsi (fn )n converge vers la fonction nulle sur R∗+ : simplement, en moyenne, mais ni pour la norme infinie ni
en moyenne quadratique. Bilan : 1 .
1
5. La suite de fonctions (fn )n définies sur [0, +∞[ par : ∀x ∈ [0, n2 ], fn (x) = et ∀x ∈]n2 , +∞[, fn (x) = 0.
n
1
On a kfn k∞ = , kfn k1 = n, kfn k2 = 1.
n
Ainsi (fn )n converge vers la fonction nulle sur R+ : simplement, pour la norme infinie, mais ni en moyenne
quadratique ni en moyenne. Bilan : ∞ .
1
6. La suite de fonctions (fn )n définies sur [0, +∞[ par : ∀x ∈ [0, n], fn (x) = , et fn (n + 1) = 1, et nulle ailleurs.
n
1
On a kfn k∞ = 1, kfn k1 = 1, kfn k2 = √ .
n
Ainsi (fn )n converge vers la fonction nulle sur R+ : simplement et en moyenne quadratique, mais ni pour la
norme infinie ni en moyenne. Bilan : 2 .
Il nous faut donc un résultat plus puissant. Le théorème suivant est dû à Henri Lebesgue (1875-1941) :
Théorème 12.55 : théorème de convergence dominée (TCD)
Soit (fn )n une suite de fonctions à valeurs réelles ou complexes définies sur un intervalle I. On suppose que :
• Pour tout n ∈ N, la fonction fn est continue par morceaux sur I.
• La suite (fn )n converge simplement sur I vers une fonction continue par morceaux.
• Il existe une fonction ϕ continue par morceaux positive et intégrable sur I telle que pour tout n ∈ N : |fn | ≤ ϕ
(hypothèse de domination).
Z Z
Alors les fonctions fn et leur limite f sont intégrables sur I et : f = lim fn .
I n I
Conformément au programme, nous admettrons ce résultat sans démonstration.
Exemple 12.56 :
archi-classique !
Z +∞ −n Z +∞
x2 2
Pour tout n ∈ N , posons In =
∗
1+ dx. Convergence de la suite (In )n ? En déduire e−x dx.
0 n 0
Remarque 12.57 :
Si l’intervalle I est borné (par exemple si c’est un segment), une fonction dominante ϕ constante peut convenir.
Exemple 12.58Z:
π
sin nt
Posons In = dt. Démontrer que la suite (In )n≥1 est convergente et calculer sa limite.
0 nt
Exemple 12.60 :
Considérons la fonction f définie sur R∗+ × R+ par :
( 1
∗ si t ≤ 1
x f (x, t) = (1 − xt) x
∀(x, t) ∈ R+ × R+
si t > 1
x f (x, t) = 0
Remarque 12.63 :
Ici encore, contrairement à l’intégration sur un segment (voir le corollaire 57 du chapitreZ 10), la convergence
X
uniforme de la série de fonctions n fn sur un intervalle quelconque I ne suffit pas pour que fn soit égale à
P
I n
X Z
fn .
n I
Exemple 12.64 :
Considérons la série de fonctions n fn définie sur l’intervalle I = [1, +∞[ par fn (x) = ne−nx − (n + 1)e−(n+1)x .
P
Remarque 12.66 :
Z +∞
1. L’hypothèse de domination est essentielle : la fonction définie sur R+ par F (x) = xe−tx dt n’est pas continue
0
+∞
en 0, étant donné que F (0) = 0 alors que pour tout x > 0 : F (x) = [−e−tx ]t=0 = 1. En fait on ne peut pas
dominer t 7→ xe−tx par une fonction intégrable indépendante de x.
2. Il suffit que l’hypothèse de domination soit vérifiée sur toute boule fermée (segment dans le cas de R) de A : pour
toute boule fermée B incluse dans A, il existe une fonction ϕB continue par morceaux, positive et intégrable sur
I telle que pour tout (x, t) ∈ B × I, |f (x, t)| ≤ ϕB (t).
Exemple 12.67 :
Étudier la continuité sur R∗+ de la fonction F définie par :
Z +∞
1
∀x ∈ R∗+ , F (x) = dt.
0 x2 + E(t)2
Remarque 12.68 :
cas particulier où f est continue et l’intervalle I est un segment :
Lorsque l’intervalle d’intégration est un segment I = [a, b], et la fonction f est continue sur A×[a, b], il est beaucoup
plus facile de dominer.
En effet, pour toute boule fermée B de A, B × [a, b] est fermé borné, et comme f est continue, f (B × [a, b]) est
fermé borné : f est bornée. La fonction constante M = sup |f | assure l’hypothèse de domination. Le théorème 12.65
permet de conclure que F est continue sur A.
Exemple 12.69 :
1
ln(1 + |x − t|)
Z
L’application x 7→ dt est continue sur R.
0 1 + t2
Remarque 12.70 :
Dans ce corollaire, la continuité par rapport à chacune des variables ne suffit pas.
Considérons par exemple la fonction f définie sur [0, 1]2 par :
xt
∀(x, t) ∈ [0, 1]2 f (x, t) = .
(x2 + t2 )2
Pour tout t ∈ [0, 1], la fonction x 7→ f (x, t) est continue sur [0, 1]. Pour tout x ∈ [0, 1], la fonction t 7→ f (x, t) est
continue sur [0, 1]. Cependant
Z 1 1
xt x 1 1
∀x ∈]0, 1], F (x) = 2 2 2
dt = − 2 2
= 2
et F (0) = 0,
0 (x + t ) 2 x +t 0 2x(x + 1)
donc F n’est pas continue en 0 ! Cela provient du fait que la fonction f n’est pas continue en (0, 0). En effet lim f (u, u) =
u→0
+∞).
∂f
B Pour tout x ∈ A, la fonction (x, ·) est continue par morceaux sur I.
∂x
∂f
B Pour tout t ∈ I, la fonction (·, t) est continue sur A.
∂x
B Il existe une
fonction ϕ continue par morceaux, positive et intégrable sur I telle que pour tout (x, t) ∈ A×I,
∂f
(x, t) ≤ ϕ(t) (hypothèse de domination).
∂x
Z
∂f
Alors (x, ·) est intégrable sur I et la fonction F définie sur A par : F (x) = f (x, t) dt est de classe C 1 sur A et :
∂x I
Z
∂f
∀x ∈ A, F 0 (x) = (x, t) dt (formule de Leibniz).
I ∂x
Remarque 12.72 :
Ici encore, il suffit que l’hypothèse de domination soit vérifiée sur tout segment de A : pour tout segment B inclus
dans
A, il existe une fonction ϕB continue par morceaux, positive et intégrable sur I telle que pour tout (x, t) ∈ B × I,
∂f
(x, t) ≤ ϕB (t).
∂x
Remarque 12.73 :
cas particulier où l’intervalle I est un segment.
∂f
Là encore, lorsque I = [a, b] est un segment et continue sur A × I, la domination est beaucoup plus facile à
∂x
obtenir.
En effet, pour toute boule fermée B de A, la dérivée partielle est continue sur le fermé borné B × [a, b] donc elle y
est bornée (et atteint ses bornes).
Exemple 12.74 : Z 1
sin(xt)
Montrer que la fonction F définie par : F (x) = dt est de classe C 1 sur R et calculer sa dérivée.
0 t
Remarque 12.75 :
Comme corollaire du théorème de dérivation sous le signe et de la remarque précédente, on peut aussi énoncer
R
∂if
• Intégrabilité de (x, · ) pour tout x ∈ J, pour tout i ∈ [[0, p − 1]].
∂xi
∂if
• Domination de (indépendamment de x) sur tout segment de J, pour tout i ∈ [[1, p]].
∂xi
Théorème 12.76 : classe C k d’une intégrale à paramètre
Soit f une fonction à valeurs réelles ou complexes définie sur A × I, où A et I sont des intervalles de R. Soit k ∈ N∗ .
Supposons que :
Remarque 12.77 :
∂j f
Une façon simple de satisfaire à l’hypothèse « pour tout x ∈ A et tout j ∈ [[0, k − 1]], la fonction (x, · ) est
∂xj
intégrable sur I » est de prouver, sans utiliser l’inégalité des accroissements finis, que chaque dérivée partielle inter-
∂j f ∂kf
médiaire (x, · ) est dominée par une fonction intégrable sur I, tout comme la dernière dérivée partielle (x, · ).
∂xj ∂xk
On peut ainsi alléger le théorème 76 de la façon suivante :
Corollaire 12.78 : classe C k d’une intégrale à paramètre, version allégée
Soit f une fonction à valeurs réelles ou complexes définie sur A × I, où A et I sont des intervalles de R. Soit k ∈ N∗ .
On suppose que :
• Pour tout t ∈ I, la fonction f ( · , t) est de classe C k sur A.
∂j f
• pour tout x ∈ A et tout j ∈ [[0, k]], la fonction (x, · ) est continue par morceaux sur I.
∂xj
• Pour tout j ∈ [[0, k]] et pour tout segment K inclus dans A, il existe ϕj continue par morceaux, positive et
∂j f
intégrable sur I, telle que, pour tout (x, t) ∈ K × I, j (x, t) ≤ ϕj (t) (hypothèse de domination généralisée).
∂x
k Z
∂ f
Alors (x, · ) est intégrable sur I et la fonction F définie sur A par F (x) = f (x, t)dt est de classe C k sur A avec :
∂xk Z k I
(k) ∂ f
∀x ∈ A, F (x) = k
(x, t)dt.
I ∂x
Montrons que Γ est de classe C ∞ sur ]0, +∞[ et que Γ est convexe sur R∗+ .
Théorème 12.79 : la fonction Γ prolonge la factorielle
Pour tout x ∈ R∗+ , Γ(x + 1) = x Γ(x).
La fonction Γ est donc un prolongement à R∗+ de la factorielle qui n’est définie que sur les entiers.
Exemple 12.81 :
Déterminer les variations de la fonction Gamma sur R∗+ . On précisera les limites aux bornes, un équivalent de Γ
en 0 et la limite de Γ0 en 0.
EPCC : exercices 19, 25, 26, 27, 28, 29, 30, 49, 50.
Notons Q la matrice ϕ(ei , ej ) , X et Y les matrices représentant les vecteurs x et y dans la base b. On
(i,j)∈[[1,n2 ]]
peut écrire :
ϕ(x, y) = t XQY.
151
13.2. ESPACE PRÉHILBERTIEN RÉEL — RAPPELS DE SUP MP 2022-23
Déterminer la matrice dans la base canonique de la forme bilinéaire symétrique (A, B) 7→ tr (AB) définie sur
M2 (R)2 .
Réciproquement, toute matrice symétrique Q définit une forme bilinéaire symétrique unique.
Proposition 13.5 : correspondance entre formes bilinéaires symétriques et matrices symétriques
L’application de BS(E) dans Sn (R) qui à la forme bilinéaire symétrique ϕ associe sa matrice dans la base b est un
isomorphisme. On en déduit que :
n(n + 1)
dim BS(E) = dim Sn (R) = .
2
Q0 = t P QP .
Si ϕ est définie positive, alors l’égalité est réalisée si et seulement si x et y sont colinéaires.
Z
3. Dans l’ensemble C([a, b], R) des fonctions continues sur le segment [a, b] : (f |g) = f g.
[a,b]
Z
4. Dans l’ensemble CL (I, R) des fonctions continues et de carré intégrable sur un intervalle I :
2
(f |g) = f g.
I
+∞
X
5. Dans l’ensemble ` (N, R) des suites (un )n telles que la série
2
u2n converge : un vn .
P
(u|v) =
n=0
Remarque 13.16 :
1. On rappelle qu’à une norme N sur E on peut associer une distance d : E × E → R+ définie par : ∀(x, y) ∈ E 2 ,
d(x, y) = N (x − y).
En particulier, la distance associée à une norme euclidienne est appelée une distance euclidienne.
2. On rappelle enfin qu’il existe des distances non euclidiennes, c’est-à-dire associées à aucune norme (par exemple
la distance discrète).
Remarque 13.18 :
L’interprétation géométrique de l’identité du parallélogramme est : « dans un parallélogramme la somme des carrés
des longueurs des côtés est égale à la somme des carrés des longueurs des diagonales ».
Remarque 13.19 :
Il existe des normes qui ne proviennent pas d’un produit scalaire (normes non-euclidiennes). Comment les repérer ?
Exemple 13.21 :
1. N1 : (x1 , . . . , xn ) 7→ |x1 | + · · · + |xn | est une norme non euclidienne sur Rn .
En effet, N1 ne vérifie pas l’identité du parallélogramme :
N (e1 + e2 )2 + N (e1 − e2 )2 = 8,
2 N (e1 )2 + N (e2 )2
= 4 6= 8.
2. N∞ : (x1 , . . . , xn ) 7→ max (|x1 |, . . . , |xn |) est une norme non euclidienne sur Rn .
En effet, N∞ ne vérifie pas non plus l’identité du parallélogramme :
N (e1 + e2 )2 + N (e1 − e2 )2 = 2,
2 N (e1 )2 + N (e2 )2
= 4 6= 2.
3. Pour une norme N , on appelle boule unité de N l’ensemble des vecteurs x tels que N (x) ≤ 1 et sphère unité de
N l’ensemble des vecteurs de norme 1. On a représenté ci-contre les sphères unités pour les trois normes N1 , N2 ,
N∞ de R2 . Saurez-vous identifier quelle « sphère » correspond à quelle norme ?
Exemple 13.24 :
Z 2π
1. Dans l’espace préhilbertien réel C 0 ([0, 2π], R) muni de (f |g) = f (t)g(t)dt, on a :
0
Z 2π 2π
1
(cos | sin) = cos t sin tdt = sin2 t = 0
0 2 0
Remarque 13.26 :
Dans le cas complexe, la condition nécessaire reste valable : si x et y sont orthogonaux, alors kx+yk2 = kxk2 +kyk2 .
En effet, l’identité kx + yk2 = kxk2 + kyk2 + 2<(x|y) permet de conclure.
Remarque 13.29 :
Si E est de dimension finie et x ∈ E \{0}, alors, x⊥ étant le noyau d’une forme linéaire non nulle, c’est un hyperplan
de E. En particulier, l’orthogonal d’un vecteur non nul dans l’espace est un plan.
Définition 13.30 : orthogonal d’une partie
Soit A ⊂ E (A est une partie quelconque de E, pas nécessairement un sev) ; on appelle orthogonal de A l’ensemble
des vecteurs de E orthogonaux à tout vecteur de A : A⊥ = {y ∈ E; ∀a ∈ A, (a|y) = 0}.
Remarque 13.31 : \
On a donc A⊥ = a⊥ , or l’intersection de sev est un sev donc A⊥ est un sev de E, même si A n’est pas un sev !
a∈A
Exemple 13.32 :
n→ − → − →− → −o − →
→ −
E = R3 et A = i + k , i + j . Un vecteur → −
w (x, y, z) appartient à A⊥ si et seulement si →
−
w · i + k = 0 et
→
− → −
→
−
w · i + j = 0, ce qui s’écrit x + z = 0 et x + y = 0, ou encore (x, y, z) = (x, −x, −x). Ainsi A⊥ est la droite de
→
− → − → −
vecteur directeur (1, −1, −1) = i − j − k .
Remarque 13.41 :
1
Tout vecteur x 6= 0 peut être normé en considérant x.
kxk
Exemple 13.42 :
Z 2π
1
Dans C 0 ([0, 2π], R) muni de (f |g) = f (t)g(t)dt, on a déjà vu que sin ⊥ cos donc la famille (sin, cos) est
2π 0
1 √ √
orthogonale. De plus, on vérifie que k sin k = k cos k = √ donc ( 2 sin, 2 cos) est une famille orthonormale.
2
Proposition 13.43 : liberté d’une famille OG ne contenant pas 0E
Toute famille orthogonale ne contenant pas le vecteur nul est libre.
Remarque 13.48 :
Si E est somme directe orthogonale de la famille de sous-espaces (Fi )i∈[[1,n]] , alors à chaque sous-espace Fi est
n
X
attaché un projecteur orthogonal pi , et : pi = IdE .
i=1
Exemple 13.49 :
On peut munir Mn (R) du produit scalaire de Frobénius défini par (A|B) = tr (tAB). Déterminons la projection
orthogonale sur Sn pour ce produit scalaire.
13.4.2 Expression d’une projection (sur un SEV de dim. finie) dans une BON —
rappels de Sup
Proposition 13.50 : expression d’une projection dans une BON
Soit (E, ( · | · )) un espace vectoriel préhilbertien réel et F un sous-espace vectoriel de E de dimension finie. Soit
(e1 , . . . , ep ) une base orthonormée de F .
p
X
∀x ∈ E, pF (x) = (x|ei )ei .
i=1
Remarque 13.51 :
Dans le cas particulier où E est de dimension finie, lorsqu’on projette orthogonalement sur un hyperplan H, si ν
désigne un vecteur unitaire normal à H, alors pH (x) = x − (x|ν)ν.
En effet, (e1 , . . . , en−1 ) étant une BON de H, la famille (e1 , . . . , en−1 , ν) est une BON de E et on a donc x =
n−1
X n−1
X
(x|ek )ek + (x|ν)ν avec pH (x) = (x|ek )ek . . .
k=1 k=1
q
X
• d’autre part pF ⊥ (x) = (x|gi )gi , donc (formule que l’on utilisera lorsque p > n − p) :
i=1
v
u q
uX
d(x, F ) = t (x|gi )2 .
i=1
Exemple 13.57 :
Déterminer inf f (x, y), où f (x, y) = (2x + y − 1)2 + (x − 3y)2 + (y − 1)2 .
(x,y)∈R2
Nous avons vu au théorème 13.59 que tout espace vectoriel euclidien possédait au moins une base orthonormale
(en fait ∅ est une base orthonormale de {0}). Comment obtenir une telle base ? Tout d’abord à partir d’une base
orthonormale d’un sous-espace :
Théorème 13.60 : théorème de la base orthonormale incomplète
Dans un espace vectoriel euclidien, toute famille orthonormale peut être complétée en une base orthonormale.
Par ailleurs on a unicité de la base (ε1 , . . . , εn ) si on exige de plus la condition : ∀i ∈ [[1, n]], (ei |εi ) ∈ R∗+ .
Remarque 13.63 :
Dans la pratique, pour alléger les calculs on peut chercher d’abord une base uniquement orthogonale puis à la fin
normaliser les vecteurs en les divisant par leur norme.
où ω est une fonction poids (continue sur [a, b] et ne s’annulant qu’en un nombre fini de points).
Alors : toute suite de polynômes orthogonaux pour ( · | · ) est totale, c’est-à-dire qu’ils engendrent un espace vectoriel
dense dans E.
L’étude des polynômes orthogonaux remplit de nombreux livres, car ceux-là ont moultes applications. Nous nous
contenterons de prouver une de leurs multiples propriétés :
Théorème 13.68 : racines des polynômes orthogonaux
Soit (Pn )n∈N la suite de polynômes orthogonaux unitaires pour un produit scalaire avec poids ω.
Alors : pour tout n, le polynôme Pn admet n racines réelles distinctes dans ]a, b[.
Remarque 13.69 :
Comme écrit plus haut, la littérature sur les polynômes orthogonaux est abondante. En particulier les polynômes
orthogonaux sont une réelle mine de sujets de concours. . .
On peut même définir des polynômes orthogonaux à l’aide de produits scalaires à poids sur des intervalles qui
ne sont pas des segments, modulo quelques hypothèses supplémentaires sur la fonction poids ω pour nous assurer de
l’intégrabilité de P Qω.
En voici 25 exemples, depuis 2000 :
Exemple 13.70 :
1. Polynôme de Legendre : [a, b] = [−1, 1] et ω(t) = 1. CCINP 2018 MP maths 1, CCINP 2018 PC, X 2018 MP
maths B, PT 2011, CCINP PC 2002.
1
2. Polynôme de Tchebychev de première espèce : ]a, b[=] − 1, 1[ et ω(t) = √ . E3A 2014 PSI maths A, ENS
1 − t2
BL 2008, PT 2007, CCINP 2e concours 2007, INT Management 2006, BCE 2005.
√
3. Polynôme de Tchebychev de seconde espèce : [a, b] = [−1, 1] et ω(t) = 1 − t2 . Centrale 2014 PSI maths 1.
4. Polynômes de Laguerre : [a, b[= [0, +∞[ et ω(t) = e−t . CCINP 2019 PC, X 2018 L2 étr., CAPES 2011, BCE
2011, ENGEES 2001.
2
5. Polynômes de Hermite : ]a, b[=] − ∞, +∞[ et ω(t) = e−t . CCINP 2016 MP maths 2, Mines 2009 PSI maths 2,
BCE 2008, ENS 2007, CCINP TPC 2006, ISUP 2006, ESSEC 2002.
6. Polynômes de Hilbert : [a, b] = [0, 1] et ω(t) = 1. Centrale MP 2011.
EPCC : exercices 39, 76, 77, 79, 80, 81, 82, 92.
∀x ∈ E, f (x) = (x|y).
En d’autres termes toute forme linéaire f s’écrit sous la forme f = ( · |y) pour un vecteur y unique.
Exemple 14.5 :
1. Un hyperplan H de E est le noyau d’une forme linéaire non nulle. On peut donc le représenter à l’aide d’un seul
vecteur n, appelé vecteur normal de H :
∀x ∈ E, x∈H ⇐⇒ (x|n) = 0.
2. Si E est un espace euclidien orienté de dimension 3, alors le déterminant d’une famille de trois vecteurs est le
même dans toutes les bases orthonormales directes ; on l’appelle produit mixte, et on le note [x, y, z].
163
14.2. ISOMÉTRIES VECTORIELLES ET MATRICES ORTHOGONALES MP 2022-23
Pour tout couple (x, y) ∈ E 2 , la forme linéaire z 7→ [x, y, z] peut être représentée par un seul vecteur noté x ∧ y :
3. Voir chapitre 19 (calcul différentiel). Si f est une fonction de classe C 1 de R3 dans R, alors sa différentielle en un
point est une forme linéaire, qui peut donc être représentée par un seul vecteur : le gradient de f en ce point :
On peut caractériser l’endomorphisme adjoint par sa matrice dans une base orthonormée :
Corollaire 14.7 : matrice de l’adjoint dans une base orthonormée
Si l’endomorphisme u est représenté dans une base orthonormée par la matrice A, alors son adjoint u∗ est représenté
dans cette même base par la matrice tA.
On appelle isométrie vectorielle ou automorphisme orthogonal tout endomorphisme u ∈ L(E) tel que :
On dit que u conserve le produit scalaire, et cela implique que u conserve aussi la norme : ∀x ∈ E, ku(x)k = kxk.
Notation : On note O(E) l’ensemble des isométries vectorielles de l’espace E.
Proposition 14.11 : justification de l’appellation « automorphisme orthogonal »
Si u est un automorphisme orthogonal de E, alors u est un automorphisme !
Exemple 14.12 :
1. Soit s la symétrie orthogonale par rapport à un sous-espace vectoriel F de E. Alors s est une isométrie vectorielle.
2. Soit p la projection orthogonale sur F , SEV strict E. Alors p n’est pas une isométrie vectorielle.
Remarque 14.16 :
Attention, ce n’est pas un espace vectoriel ! Par exemple l’application nulle n’est pas dans O(E).
Proposition 14.17 : caractérisation de l’orthogonalité par l’image d’une BON
Soit (E, ( · | · )) un espace vectoriel euclidien de base orthonormée B. Soit u ∈ L(E).
Alors : u est une isométrie vectorielle si et seulement si l’image de B par u est une base orthonormée de E.
Exemple 14.18 :
Dans R3 muni de sa structure euclidienne usuelle et de la base canonique (i, j, k), on définit u ∈ L(E) par u(i) = j,
u(j) = k et u(k) = i. La base orthonormée (i, j, k) est transformée par u en la base orthonormée (j, k, i). Donc
u ∈ O R3 .
Proposition 14.19 : stabilité de l’orthogonal d’un sous-espace stable par une isométrie vectorielle
Soit (E, ( · | · )) un e.v.e. et F un s.e.v. de E. Soit u ∈ O(E).
Si F est stable par u, alors F ⊥ est aussi stable par u.
produit scalaire usuel sur Rn . De même, en traduisant M tM = In , on obtient hLi |Lj i = δij , où les Li sont les
vecteurs lignes de la matrice M .
Corollaire 14.24 : pour les automorphismes, caractérisation de l’orthogonalité par la matrice dans une
BON
Un automorphisme u d’un espace vectoriel euclidien est orthogonal si et seulement si sa matrice dans une base
orthonormale a pour inverse sa transposée :
A−1 = t A.
Méthode :
Pour vérifier qu’une matrice M est orthogonale, on calcule les normes de chacun des vecteurs
colonnes (ou lignes) pour vérifier si elles valent 1 ; puis on vérifie si les colonnes (ou lignes) distinctes
sont orthogonales en calculant les produits scalaires 2 à 2.
Exemple 14.25 :
1
0 − √12
√
2
Soit M = 0 1 0 . On vérifie aisément que M ∈ O3 (R). Si on note u l’endomorphisme de R3 de
√1 0 √1
2 2 →− →− →−
matrice M dans la base canonique i , j , k (orthonormée pour le produit scalaire usuel), alors u est une isométrie
→
−
vectorielle. On verra que u est la rotation d’axe orienté par j et d’angle π4 . De plus M −1 = tM .
Proposition 14.26 : le groupe On (R)
Le couple (On (R), ×) est un sous-groupe de (GLn (R), ×).
Méthode : pour une matrice de passage P d’une base orthonormée à une autre base orthonormée, on
a P −1 = tP .
Corollaire 14.29 : pour un endomorphisme, formule de changement de bases orthonormées
Soit (E, ( · | · )) un espace vectoriel euclidien de bases orthonormées B et B 0 . Soit u ∈ L(E), A = MatB (u),
A0 = MatB0 (u) et P = PB→B0 . Alors : A0 = tP AP .
Il est clair que dans un espace vectoriel euclidien, l’ensemble des automorphismes orthogonaux de déterminant 1
est stable par la composition, alors que celui des automorphismes de déterminant −1 ne l’est pas. C’est une simple
conséquence de la propriété det(v ◦ u) = det v × det u.
Définition 14.31 : le groupe spécial orthogonal
Soit (E, ( · | · )) un espace vectoriel euclidien.
1. L’ensemble des automorphismes orthogonaux de E de déterminant positif, donc égal à 1, est appelé le groupe
spécial orthogonal de E et noté SO(E).
Ses éléments sont appelés rotations.
2. L’ensemble des automorphismes orthogonaux indirects de E (i.e. de déterminant négatif, égal à −1), est noté
O− (E).
3. Toute symétrie orthogonale par rapport à un hyperplan de E est appelée réflexion.
4. On définit de façon analogue le groupe SOn (R) = SO(n) et l’ensemble On− (R) = O− (n).
Remarque 14.33 :
En revanche (O− (E), ◦) et (On− (R), ×) ne sont pas des groupes puisque par exemple ne contenant respectivement
pas IdE et In .
Proposition 14.34 : caractérisation de SO(E) par l’image d’une BOND
Soit (E, ( · | · )) un espace vectoriel euclidien. Soit u ∈ L(E) et B une base orthonormée directe de E.
Alors : u ∈ SO(E) si et seulement si l’image de B par u est une base orthonormée directe de E.
1. Soit D et D0 deux droites vectorielles de vecteurs directeurs unitaires u et u0 , alors sD0 ◦ sD = r2(u,u
\ 0) .
2. Toute rotation vectorielle se décompose en produit de deux réflexions vectorielles, dont l’une peut être choisie
arbitrairement.
0 sin θ cos θ
0 0 1 0 0 −1 0 0 −1 0 0 −1
Les isométries représentées dans une base orthonormée par ces matrices sont :
— IdE pour D1 ;
— une réflexion pour D2 ;
— une symétrie axiale pour D3 ;
— −IdE , c’est-à-dire la symétrie centrale pour D4 .
2. La matrice A possède une unique racine réelle et deux racines non réelles conjuguées eiθ et e−iθ . D’après
la proposition 14.38, la matrice A est orthogonalement semblable à l’une des deux matrices suivantes :
1 0 0 −1 0 0
(3) (3)
Rθ = 0 cos θ − sin θ ; Sθ = 0 cos θ − sin θ .
Exemple 14.52 :
Déterminer la nature et les éléments caractéristiques de l’endomorphisme de R3 canoniquement associé à la matrice
2 2 1
1
A = −2 1 2 .
3
1 −2 2
Exemple 14.53 :
Déterminer la nature et les éléments caractéristiques de l’endomorphisme de R3 canoniquement associé à la matrice
−8 4 1
1
A = − 4 7 4 .
9
1 4 −8
Exemple 14.54 :
Nature et éléments caractéristiques de l’endomorphisme de R3 canoniquement associé à la matrice
√
3 1 6
1 √
A = − 1 3 − 6 .
4 √ √
− 6 6 2
Rappelons qu’un projecteur est dit orthogonal lorsque son image et son noyau sont supplémentaires orthogonaux,
et qu’une symétrie est dite orthogonale lorsque la projection qui lui est associée (à savoir s = 2p−IdE ) est orthogonale.
Voici deux exemples de référence :
Théorème 14.58 : projection et symétrie orthogonales
1. Un projecteur est auto-adjoint si et seulement si c’est une projection orthogonale.
2. Une symétrie est auto-adjointe (ou symétrique !) si et seulement si c’est une symétrie orthogonale.
Proposition 14.59 : stabilité de l’orthogonal d’un sous-espace stable par un endo. auto-adjoint
Soit (E, ( · | · )) un e.v.e. et F un s.e.v. de E. Soit u ∈ S(E).
Si F est stable par u, alors F ⊥ est aussi stable par u.
Corollaire 14.60 : décomposition d’un endomorphisme auto-adjoint à l’aide d’un sous-espace stable
173
15.1. ESPACE PROBABILISÉ MP 2022-23
Ceci revient à dire qu’une tribu est non-vide, stable par complémentaire et réunion dénombrable.
Proposition 15.2 : conséquences immédiates de la définition
Soit T une tribu sur un univers Ω. Alors :
1. ∅ ∈ T .
\
2. Pour toute suite (An )n∈N d’éléments de T , l’intersection An appartient encore à T .
n∈N
3. T est stable par réunion finie.
4. T est stable par intersection finie.
5. Pour tous A et B éléments de T , A ∩ B = A \ B ∈ T .
Exemple 15.3 :
Exemple 15.6 :
Remarque 15.8 :
1. Pour une suite finie d’événements (A0 , A1 , . . . , An ) deux à deux incompatibles, on a encore
n
! n
[ X
P Ak = P(Ak ).
k=0 k=0
Il suffit pour le voir de compléter la suite finie en une suite dénombrable, en posant Ak = ∅ pour tout k > n,
puis d’appliquer la σ-additivité.
2. Pour toute suite dénombrable (An )n∈N d’éléments de T deux à deux incompatibles, la convergence de la série
de terme général P(An ) est claire.
! En effet, il s’agit d’une série à termes positifs dont les sommes partielles Sn
[n
sont égales à Sn = P Ak et donc sont majorées par 1.
k=0
3. Si les événements ne sont pas deux à deux incompatibles, la série de terme général P(An ) peut diverger. C’est le
cas par exemple lorsqu’on considère une suite d’événements dont tous les termes sont égaux à un événement de
probabilité non nulle.
4. De la remarque précédente, il résulte que si P est une probabilité sur un espace probabilisable (Ω, P(Ω)), où
Ω = {xn , n ∈ N} est un univers dénombrable, il ne peut pas y avoir équiprobabilité des événements élémentaires
{xn }. En effet, s’il y avait équiprobabilité, on aurait P({xn }) = p > 0 pour tout n ∈ N et donc
P
P ({xn })
+∞
X
divergerait, ce qui est absurde, puisque par σ-additivité : P ({xn }) = P(Ω) = 1 !
n=0
Cette propriété se généralise au cas d’un espace probabilisé infini, lorsqu’il est doté d’une distribution de probabilités
discrète.
Définition 15.10 : distribution de probabilités discrète
Lorsque Ω est un ensemble, on appelle distribution de probabilités discrète sur Ω une famille sommable (pω )ω∈Ω
de réels positifs indexée par Ω et de somme 1 : X
pω = 1.
ω∈Ω
On appelle support de cette distribution l’ensemble des éléments ω ∈ Ω tels que pω > 0.
Proposition 15.11 : support d’une distribution de probabilités discrète
Le support d’une distribution de probabilités discrète est au plus dénombrable.
Remarque 15.12 :
L’ensemble Ω, lui, n’est pas nécessairement au plus dénombrable, car on ne sait rien de l’ensemble Ω \ S, qui est
l’ensemble des éléments de Ω tels que pω = 0.
Proposition 15.13 : espace probabilisé discret
Soit Ω un ensemble et (pω )ω∈Ω une distribution de probabilités discrète sur Ω. Alors l’application P définie sur
P(Ω) par : X
∀A ∈ P(Ω), P(A) = pω
ω∈A
Pour tout ω ∈ Ω, le réel pω est la probabilité de l’événement élémentaire {ω}. Il suffit donc de connaître la
probabilité de tous les événements élémentaires pour déterminer celle d’un événement quelconque.
Remarque 15.14 :
Si ω n’appartient pas au support de la distribution, alors pω = 0, c’est-à-dire que l’événement {ω} est négligeable.
Dans la pratique, on peut écarter ces éléments et se ramener à l’univers S, qui est au plus dénombrable.
Exemple 15.15 :
Sur Ω = N muni de la tribu P(N), on peut définir pour tout p ∈]0, 1[ une probabilité P unique telle que pour tout
n ∈ N, P({n}) = p(1 − p)n , car la suite (p(1 − p)n )n∈N est géométrique de somme 1. La probabilité d’un événement A
quelconque sera donnée par : X
P(A) = p(1 − p)n .
n∈A
Cette probabilité sera utilisée dans l’étude de la loi géométrique (chapitre 16 « variables aléatoires »).
D’après la définition d’une probabilité, on peut calculer la probabilité d’une réunion dénombrable d’événements
deux à deux incompatibles. La propriété ci-dessous permet de calculer la probabilité d’une réunion dénombrable d’une
suite croissante d’événements :
Théorème 15.17 : théorème de la limite monotone
Soit (Ω, T , P) un espace probabilisé.
1. Soit (An )n∈N une suite croissante d’événements (au sens où An ⊂ An+1 pour tout entier n ∈ N). Alors :
+∞
!
[
P An = lim P(An ).
n→+∞
n=0
2. Soit (An )n∈N une suite décroissante d’événements (au sens où An+1 ⊂ An pour tout entier n ∈ N). Alors :
+∞
!
\
P An = lim P(An ).
n→+∞
n=0
Remarque 15.18 :
Attention, erreur classique : la suite doit vraiment être monotone !
Exemple 15.19 :
On lance une infinité de fois une pièce équilibrée et on considère l’événement A : « obtenir Pile à tous les lancers ».
Afin de déterminer la probabilité de A, on introduit les événements An : « les n premiers lancers donnent Pile ». Ainsi :
+∞
\
A = An
n=1
où la suite (An )n∈N∗ est une suite décroissante d’événements. On obtient facilement que
1
P(An ) = .
2n
On déduit donc que :
P(A) = lim P(An ) = 0.
n→+∞
Il n’existe pas de formule permettant de calculer la probabilité d’une réunion dénombrable d’événements quel-
conques analogue à celle du crible pour la réunion finie. On peut néanmoins majorer cette probabilité :
Proposition 15.20 : inégalité de Boole
Soit (Ω, T , P) un espace probabilisé. Soit (An )n∈N une suite d’événements telle que la série de terme général P(An )
converge. Alors : !
+∞
[ +∞
X
P An ≤ P(An ).
n=0 n=0
Proposition 15.22 : propriétés des événements négligeables et des éléments presque sûrs
Soit (Ω, T , P) un espace probabilisé.
1. Une réunion au plus dénombrable d’événements négligeables est un événement négligeable :
+∞
!
[
(∀n, P(An ) = 0) =⇒ P An = 0.
n=0
2. Une intersection au plus dénombrable d’événements presque sûrs est un événement presque sûr :
+∞
!
\
(∀n, P(Bn ) = 1) =⇒ P Bn = 1.
n=0
3. L’intersection d’un événement quelconque avec un événement négligeable est un événement négligeable.
La réunion avec un événement négligeable ne change pas la probabilité.
En d’autres termes :
P(A) = 0 =⇒ P(A ∩ B) = 0 ∧ P(A ∪ B) = P(B) .
4. La réunion d’un événement quelconque avec un événement presque sûr est un événement presque sûr.
L’intersection avec un événement presque sûr ne change pas la probabilité.
En d’autres termes :
P(A) = 1 =⇒ P(A ∩ B) = P(B) ∧ P(A ∪ B) = 1 .
Exemple 15.23 :
1. Petite digression au pays des probabilités continues. . . Considérons l’expérience consistant à tirer un nombre réel
au hasard. Quelle est la probabilité de tirer un nombre rationnel ? Un nombre irrationnel
[ ?
La probabilité d’obtenir un rationnel choisi à l’avance q est alors nulle. Or Q = {q} est une réunion dénom-
q∈Q
brable, donc la probabilité de tirer un rationnel est nulle d’après le premier point de la proposition précédente.
On en déduit que la probabilité de tirer un irrationnel est égale à 1.
2. Un système d’événements (Ai )i∈I (au plus dénombrable) est dit quasi-complet lorsque :
!
[ [
(a) P Ai = 1 (au lieu de Ai = Ω pour un SCE).
i∈I i∈I
(b) Pour tout (i, j) ∈ I 2 , si i 6= j alors Ai ∩ Aj = ∅.
Un système complet d’événements est donc quasi-complet. X
Soit donc un système quasi-complet et A un événement. Démontrons que P(A) = P(A ∩ Ai ). On remarque
i∈I
+∞
X
au passage que la formule que nous allons démontrer implique avec A = Ω : P(Ai ) = 1.
i=0
[
L’événement Ai étant presque-sûr, il vient
i∈I
! !
[ [
P(A) = P A ∩ Ai = P A ∩ Ai .
i∈I i∈I
15.2 Conditionnement
Dans ce paragraphe, nous allons généraliser la notion de probabilité conditionnelle vue en Sup dans le cas des
univers finis, au cas des univers au plus dénombrables.
PA : T −→ [0, 1]
P(A ∩ B)
B 7−→
P(A)
Alors :
!
n
\ n
Y i−1
\
P Ak = P Ai | Aj
k=1 i=1 j=1
Exemple 15.27 :
On considère une urne contenant 6 boules blanches et 4 noires. On tire une à une et sans remise trois boules.
On s’intéresse à l’événement A = « obtenir une boule blanche puis deux noires ». On introduit les événements B1 =
« obtenir une boule blanche au premier tirage », N2 = « obtenir une boule noire au second tirage » et N3 = « obtenir
une boule noire au dernier tirage ». Ainsi :
6 4 3 1
P(A) = P(B1 ∩ N2 ∩ N3 ) = P(B1 )PB1 (N2 )PB1 ∩N2 (N3 ) = × × = .
10 9 8 10
Remarque 15.29 :
1. Dans la formule précédente, on peut s’affranchir de la condition « événements de probabilités non nulles » en
adoptant la convention P(B|An )P(An ) = 0 lorsque P(An ) = 0.
2. La formule reste valable dans le cas d’une suite (An )n∈N set formant un système quasi-complet d’événements
+∞
X +∞
[
(événements deux à deux incompatibles tels que P(An ) = 1 au lieu de Ai = Ω).
n=0 i=0
Exemple 15.30 :
Reprenons l’exemple 15.27 précédent, considérant une urne contenant 6B4N . Déterminons la probabilité de l’évé-
nement A = « obtenir une boule noire au second tirage », en introduisant le système complet d’événements constitué
de B1 et N1 = B 1 , où B1 est l’événement « obtenir une boule blanche au premier tirage ». Ainsi :
6 4 4 3 2
P(A) = P(B1 )PB1 (A) + P(N1 )PN1 (A) = × + × = .
10 9 10 9 5
PAi (B)P(Ai )
∀i ∈ N, PB (Ai ) = +∞
.
X
PAn (B)P(An )
n=0
Remarque 15.33 :
Cette formule permet de calculer la probabilité d’événements Ai sachant B, alors que c’est l’événement B qui
dépend des événements Ai .
En d’autres termes la formule de Bayes permet de remontrer dans le temps !
Exemple 15.34 :
1
On considère 100 dés, dont 25 sont pipés au sens où la probabilité d’obtenir 6 est . On lance un dé choisi au
2
hasard et on obtient 6. Quelle est la probabilité de l’événement A = « le dé lancé est pipé » ?
De ces définitions découlent les propriétés suivantes. Les démonstrations de Sup peuvent ici être reprises.
Proposition 15.36 : propriétés des événements indépendants
Soit (Ω, T , P) un espace probabilisé, A ∈ T tel que P(A) > 0 et B ∈ T . Alors :
1. Les événements A et B sont indépendants si et seulement si PA (B) = P(B).
2. Si A et B sont des événements indépendants alors les événements A et B sont indépendants, ainsi que les
événements A et B.
Ainsi trois événements A1 , A2 et A3 sont mutuellement indépendants lorsque les quatre égalités ci-dessous sont
satisfaites :
et
P(A1 ∩ A2 ∩ A3 ) = P(A1 )P(A2 )P(A3 ).
Pour une suite finie de n ≥ 2 événements distincts, le nombre d’égalités à vérifier est égal à :
n n n
+ + ··· + = (1 + 1)n − n − 1.
2 3 n
Remarque 15.39 :
L’indépendance deux à deux n’entraîne pas l’indépendance mutuelle. Il suffit de considérer l’expérience aléatoire
suivante : on lance deux dés équilibrés et soit A l’événement « le premier dé donne un nombre pair », B l’événement « le
second dé donne un nombre impair » et C l’événement « les deux dés donnent des numéros de même parité ». Alors, en
1 1
considérant la probabilité uniforme naturelle, il vient P(A) = P(B) = P(C) = , P(A ∩ B) = P(A ∩ C) = P(C ∩ B) =
2 4
mais P(A ∩ B ∩ C) = 0 6= P(A)P(B)P(C).
Proposition 15.40 : probabilité de l’intersection d’événements mutuellement indépendants
Soit (Ω, T , P) un espace probabilisé, et (An )n∈N une suite d’événements mutuellement indépendants. Alors
+∞
! n
\ Y
P An = lim P(Ak ).
n→+∞
n=0 k=0
Proposition 15.41 : une CNS pour que des événements soient mutuellement indépendants
Soit (Ω, T , P) un espace probabilisé. Alors : une suite (An )n∈N d’événements est une suite d’événements mutuelle-
ment indépendants si et seulement si pour tout entier n, les événements A0 , . . . , An sont mutuellement indépendants.
Variables aléatoires
En Sup, nous avons étudié les variables aléatoires X associées à des probabilités P sur un univers fini Ω, et pour
lequel la tribu considérée était toujours P(Ω). Ceci nous a permis de définir la probabilité que la variable aléatoire X
prenne ses valeurs dans une partie A, à savoir P(X ∈ A).
En Spé, nous nous plaçons dans le cas d’une univers pas forcément fini soit au plus dénombrable (VA discrète), soit
non dénombrable, et pour une tribu T pouvant être différente de P(Ω). Étant donné que P([X = x]) = P(X −1 ({x})),
il nous faudra une condition sur les images réciproques X −1 ({x}) de la variable aléatoire X afin de pouvoir calculer
la probabilité P([X = x]).
En L3 nous étudierons les variables aléatoires continues, c’est-à-dire associées à des probabilités sur un univers
continu (par exemple R).
Nous travaillons désormais sur un univers Ω au plus dénombrable, constitué de tous les résultats possibles d’une
expérience. Cet univers sera muni d’une tribu T .
Dans tout ce chapitre, nous considérerons également un ensemble E.
Remarque 16.2 :
1. En probabilités, on utilise la notation absolument pas rigoureuse suivante : l’image réciproque par X d’un élément
x de E est noté [X = x] ou (X = x). Ceci signifie
185
16.1. VARIABLES ALÉATOIRES MP 2022-23
3. La définition d’une variable aléatoire ne dépend pas d’une quelconque probabilité P, mais seulement de l’espace
probabilisable (Ω, T ).
4. En Sup l’ensemble Ω est fini, ainsi X(Ω) est fini donc au plus dénombrable. En outre chaque [X = x] = X −1 ({x})
est également fini.
Par conséquent les variables aléatoires vues en Sup sont également des variables aléatoires discrètes.
5. Attention ! Une application Ω → E quelconque avec Ω fini n’est pas toujours une variable aléatoire. Il faut que
chaque [X = x] soit un événement !
Considérons npar exemple deux o
lancers successifs d’un pièce et Ω = {P P, F F, P F, F P }. On définit une tribu en
posant T = ∅, Ω, {P P }, {P P } : ceci contient Ω, c’est stable par complémentaire et par réunion dénombrable.
Soit X : Ω → R l’application qui associe à chaque résultat le nombre de Piles obtenu : ce n’est pas une variable
aléatoire car l’ensemble [X = 1] = X −1 ({1}) = {P F, F P } des résultats de Ω ayant un seul Pile n’est pas un
élément de T .
Dans ce qui suit, toutes les variables aléatoires sont supposées discrètes.
Proposition 16.3 : propriétés des variables aléatoires
Soit X : Ω → E une VAD. On pose X(Ω) = {xk / k ∈ K} où K ⊂ N. Alors :
1. Pour toute partie A ⊂ E de E, l’image réciproque de A par X, notée [X ∈ A], est un événement.
2. Pour tout A ⊂ E, pour toute suite (Ai )i∈I de parties de E, on a :
" # " #
[ [ \ \
[X ∈ A] = [X ∈ A], X∈ Ai = [X ∈ Ai ], X∈ Ai = [X ∈ Ai ],
i∈I i∈I i∈I i∈I
[X ∈ ∅] = ∅, [X ∈ E] = Ω.
3. La famille d’événements [X = xk ] forme un système complet d’événements.
k∈K
Remarque 16.4 :
Ces propriétés permettent de donner une CNS pour que X : Ω → R (c’est-à-dire pour E = R) soit une VAD :
• X(Ω) est au plus dénombrable.
• Pour tout intervalle I de R, on a (X ∈ I) ∈ T .
En effet si X est une VAD c’est une application directe de la proposition.
Réciproquement, supposons que X vérifie les deux propriétés ci-dessus. Soit x ∈ R et I = [a, b] un segment
contenant x. Alors :
[X = x] = [X ∈ [a, x] ∩ [x, b]] = [X ∈ [a, x]] ∩ [X ∈ [x, b]] ∈ T .
Afin de parler d’espérance et de variance, nous avons besoin du carré d’une variable aléatoire réelle. Voici la
proposition qui nous le permettra :
Proposition 16.7 : fonction d’une variable aléatoire
Cette proposition permettra de définir l’espérance et la variance. Elle permet aussi de vérifier que les composantes
d’un vecteur aléatoire sont bien des variables aléatoires :
Corollaire 16.8 : si (X1 , X2 ) vecteur aléatoire discret réel alors X1 et X2 VAD réelles
Soit X : Ω → R2 un vecteur aléatoire discret réel. Notons p1 et p2 les projections canoniques de R2 dans R,
c’est-à-dire définies par p1 (x) = x1 et p2 (x) = x2 , pour x = (x1 , x2 ).
Notons X1 = p1 (X) et X2 = p2 (X). Alors X1 et X2 sont des variables aléatoires discrètes réelles définies sur Ω.
Réciproquement, prouvons que deux variables aléatoires discrètes X1 et X2 donnent lieu à un vecteur aléatoire
discret (X1 , X2 ) :
Proposition 16.9 : si X1 et X2 VAD réelles alors (X1 , X2 ) vecteur aléatoire discret
Soit X1 et X2 deux variables aléatoires discrètes réelles. Définissons X = (X1 , X2 ) : Ω → R2 par X(ω) =
(X1 (ω), X2 (ω)). Alors X est un vecteur aléatoire discret réel.
∀ω ∈ Ω, min(X, Y )(ω) = min{X(ω), Y (ω)}, max (X, Y )(ω) = max {X(ω), Y (ω)}.
Alors min(X, Y ) et max (X, Y ) sont des variables aléatoires discrètes réelles.
2. Pour tout (λ, µ) ∈ R2 , on définit λX + µY par :
Remarque 16.11 :
Les résultats pour des vecteurs aléatoires à valeurs dans R2 peuvent être étendus à des vecteurs aléatoires à valeurs
dans Rk , k ≥ 2.
On en déduit :
Proposition 16.15 : sommabilité de (P([X = xk ]))k∈K
Soit (Ω, T , P) un espace probabilisé.
Soit X : Ω → E une variable aléatoire
discrète. Notons X(Ω) = {xk / k ∈ K} pour K ⊂ N.
Alors la famille P([X = xk ]) est sommable de somme 1.
k∈K
Remarque 16.16 :
Attention, deux variables aléatoires peuvent avoir la même loi sans être égales. En d’autres termes PX = PY mais
X 6= Y .
Exemple 16.17 :
Considérons une variable aléatoire X à valeurs dans E = {−1, 0, 1} et de loi donnée par
Posons Y = −X.
Démontrer que PX = PY mais que X 6= Y .
Conformément au programme officiel, nous admettrons le résultat suivant, qui donne une sorte de réciproque à la
proposition précédente :
P
Proposition 16.18 : construction d’une probabilité à l’aide de (pk )k telle que k∈K pk = 1
Soit (Ω, T ) un espace probabilisable.
Soit X : Ω → E une variable aléatoire discrète. NotonsX X(Ω) = {xk / k ∈ K}, pour K ⊂ N, les xk étant distincts.
Si (pk )k∈K est une suite de réels positifs vérifiant pk = 1. Alors il existe une probabilité P sur (Ω, T ) telle que
k∈K
P([X = xk ]) = pk pour tout k ∈ K.
Lemme 16.19 : lim P(X ≥ n) = 0
n→+∞
Soit X une VARD sur un espace probabilisé, telle que X(Ω) = N. Alors lim P([X ≥ n]) = 0.
n→+∞
Exemple 16.22 :
On considère l’expérience aléatoire qui consiste à lancer successivement trois pièces de monnaie équilibrées et on
s’intéresse au résultat Pile ou Face obtenu sur chaque pièce. L’univers associé à cet expérience aléatoire est
Ω = {P P P, P P F, P F P, P F F, F P P, F P F, F F P, F F F }.
On note X la variable aléatoire qui à un résultat de ce lancer associe le nombre de « Pile » obtenus.
Déterminer la loi de probabilité de X et sa fonction de répartition.
Remarque 16.23 :
La connaissance de la fonction de répartition permet de calculer la probabilité de tout intervalle :
• P(X ∈] − ∞, x]) = P([X ≤ x]) = FX (x).
• P(X ∈]x, +∞[) = P([X > x]) = 1 − P([X ≤ x]) = 1 − FX (x).
• P(X ∈]x, y]) = FX (y) − FX (x).
• P(X ∈] − ∞, x[) = P([X < x]) = FX (x− ).
• P(X ∈]x, y[) = P([x < X < y]) = FX (y− ) − FX (x).
• P(X ∈ [x, y[) = P([x < X < y]) = FX (y− ) − FX (x− ).
• P(X ∈ [x, y]) = P([x ≤ X ≤ y]) = FX (y) − FX (x− ).
Remarque 16.25 :
2. La loi de probabilité PY de la variable aléatoire discrète réelle Y est déterminée à partir de la loi P(X,Y ) du
couple (X, Y ) par :
• Y (Ω) = {yj / j ∈ J}.
X
• P([Y = yj ]) = P [(X, Y ) = (xi , yj )] , pour tout j ∈ J.
i∈I
La loi conjointe de deux variables aléatoires discrète se visualise à l’aide d’un tableau (éventuellement infini dé-
nombrable). Pour toutes variables aléatoires discrètes réelles X et Y :
Le n-ième élément de la dernière colonne, soit PX (xn ), s’obtient en additionnant les termes de la n-ième ligne. De
même pour la k-ième colonne.
Définition 16.27 : lois marginales d’un couple (X, Y )
Les lois PX et PY de X et Y sont appelées lois marginales du couple (X, Y ).
Proposition 16.28 : loi conditionnelle
Soit X et Y deux variables aléatoires discrètes réelles sur (Ω, T , P).
Considérons x ∈ R tel que l’événement (X = x) soit de probabilité non nulle. Notons A = P(Y (Ω)), ensemble des
parties de Y (Ω).
Alors l’application
A = P(Y (Ω)) −→ [0, 1], A 7−→ P(X=x) ([Y ∈ A])
est une probabilité sur (Y (Ω), P(Y (Ω))).
Nous allons établir une réciproque partielle. Plus précisément, nous allons déterminer la loi conjointe P(X,Y ) de
(X, Y ) en fonction des lois PX et PY lorsque X et Y seront indépendantes au sens défini ci-dessous.
Définition 16.30 : indépendance d’un couple de variables aléatoires
Deux variables aléatoires X et Y définies sur (Ω, T , P) à valeurs dans E sont dites indépendantes lorsque pour
toutes parties A et B de E, les événements (X ∈ A) et (Y ∈ B) sont indépendants, c’est-à-dire
P (X ∈ A) ∩ (Y ∈ B) = P(X ∈ A) × P(Y ∈ B).
On écrit alors X ⊥
⊥Y.
Proposition 16.31 : caractérisation par les distributions de probabilités
Deux variables aléatoires X et Y sont indépendantes si et seulement si la distribution de probabilités du couple
(X, Y ) est le produit des distributions de probabilités de X et de Y : ∀(a, b) ∈ E 2 , P (X, Y ) = (a, b) = P(X =
a)P(Y = b).
On en déduit que :
Proposition 16.32 : produit de lois marginales
La loi conjointe P(X1 ,X2 ) du couple X = (X1 , X2 ) de deux variables aléatoires indépendantes X1 et X2 est égale
au produit des lois marginales :
∀(x1 , x2 ) ∈ X(Ω) = (X1 , X2 )(Ω), P(X1 ,X2 ) (x1 , x2 ) = PX1 (x1 )PX2 (x2 ).
Remarque 16.33 :
• Si P(X1 ,X2 ) est connue alors PX1 et PX2 sont connues (proposition 16.26).
• Si PX1 et PX2 sont connues et si X1 et X2 sont indépendantes, alors P(X1 ,X2 ) est connue (proposition 16.32).
X⊥
⊥Y =⇒ f (X) ⊥
⊥ g(Y ).
Ces notions peuvent être étendues au cas d’une famille finie de variables aléatoires :
Définition 16.35 : famille finie de variables aléatoires indépendantes
Les variables aléatoires X1 , . . . , Xn définies sur (Ω, T , P) à valeurs dans E, sont dites mutuellement indépendantes
lorsque, pour tout n-uplet (A1 , . . . , An ) de parties de E, les événements (X1 ∈ A1 ), . . . , (Xn ∈ An ) sont mutuellement
indépendants, c’est-à-dire :
n
\ Yn
P (Xi ∈ Ai ) = P(Xi ∈ Ai ).
i=1 i=1
Exemple 16.40 :
Revenons sur un exemple du chapitre 15 formulé en termes de variables aléatoires de Bernoulli.
On lance deux dés et on introduit les trois variables aléatoires de Bernoulli X1 , X2 , X3 définies par : [X1 = 1] si le
premier dé donne un résultat pair ; [X2 = 1] si le second dé donne un résultat pair ; [X3 = 1] si la somme des numéros
des deux dés est paire.
Vérifier que les trois événements [X1 = 1], [X2 = 1] et [X3 = 1] sont deux à deux indépendants mais pas
mutuellement indépendants.
On peut généraliser ce résultat en envisageant n’importe quelle partition des indices de 1 à n : pour tous entiers
0 < m1 < m2 < · · · < mk (où mk = n) et toutes fonctions f1 , f2 , . . . , fk , les variables aléatoires Y1 = f1 (X1 , . . . , Xm1 ),
Y2 = f2 (Xm1 +1 , . . . , Xm2 ), . . . , Yk = fk (Xmk−1 +1 , . . . , Xmk ) sont indépendantes.
Considérations heuristiques
On dit généralement que deux expériences aléatoires sont indépendantes quand il n’y a aucun lien de causalité
entre elles. Par exemple :
1. On lance un dé (expérience E1 ) puis on lance une pièce de monnaie (expérience E2 ). Il est clair que les expériences
E1 et E2 sont indépendantes car il n’y a aucune raison pour que le résultat de E1 influe d’une façon ou d’une
autre sur celui de E2 et inversement.
2. On lance un dé (expérience E1 ) puis on relance le dé une deuxième fois dans les mêmes conditions (expérience
E2 ). Ici aussi E1 et E2 sont indépendantes.
Soient donc E1 et E2 des expériences aléatoires indépendantes, A1 un événement relatif à E1 et A2 un événement
relatif à E2 . On est en droit de postuler l’indépendance des événements A1 et A2 .
Plus généralement, quand n événements A1 , . . . , An sont relatifs respectivement à des expériences aléatoires
indépendantes E1 , . . . , En , on postulera l’indépendance de ces événements et le fait que
Mais un problème mathématique subsiste : de quel espace probabilisé (Ω, T, P) les Ai sont-ils des événements et quelle
est la probabilité P ?
Des questions analogues se posent lorsqu’on enchaîne une infinité dénombrable de fois des expériences aléatoires
indépendantes, par exemple lorsqu’on répète une infinité de fois une même expérience.
Pour répondre à ces questions nous allons maintenant définir les notions nécessaires à la modélisation d’un tel
problème.
Ω = Ω1 × Ω2 × · · · × Ωn .
T = T 1 × · · · × Tn .
Exemple 16.44 :
Considérons deux espaces probabilisables (Ωi , Ti ) pour i ∈ {1, 2}, munis chacun d’une tribu : Ti = {∅, Ωi , Ai , Ai }.
Décrire les 16 pavés mesurables. Déterminer ensuite la tribu produit.
Le théorème permettant de définir une probabilité sur cette nouvelle tribu produit est admis par le programme :
Théorème 16.45 : probabilité produit
Il existe une unique probabilité P sur la tribu produit T telle que pour tout pavé mesurable A = A1 × · · · × An
n
Y
P(A) = Pi (Ai ).
i=1
P = P1 ⊗ · · · ⊗ Pn .
L’espace (Ω, T , P), où Ω = Ω1 ×· · ·×Ωn , T = T1 ×· · ·×Tn et P = P1 ⊗· · ·⊗Pn , s’appelle l’espace probabilisé produit
des espaces probabilisés (Ωi , Ti , Pi ), i ∈ [[1, n]].
La notion d’espace produit permet de modéliser correctement la notion d’expériences aléatoires indépendantes
introduite plus haut.
Considérons en effet n expériences aléatoires Ei , i ∈ [[1, n]] indépendantes (au sens donné en début de sous-section)
et supposons que Ei est modélisée par un espace probabilisé (Ωi , Ti , Pi ). Soit E l’expérience aléatoire « E1 puis E2 puis
. . . puis En » consistant en la succession des diverses expériences indépendantes Ei .
On modélise alors l’expérience E par l’espace probabilisé produit (Ω, T, P) des espaces probabilisés (Ωi , Ti , Pi ).
Remarque 16.47 :
Avec les notations précédentes, soit Ai ∈ Ti un événement relatif à la i-ème expérience. Il s’identifie naturellement
à l’événement
Ãi = Ω1 × · · · × Ωi−1 × Ai × Ωi+1 × · · · × Ωn
de la tribu produit T . Ces événements sont indépendants dans l’espace produit puisque
n
Y n
Y
P Ã1 ∩ Ã2 ∩ · · · ∩ Ãn = P(A1 × A2 × · · · × An ) = Pi (Ai ) = P Ãi .
i=1 i=1
On a donc bien construit un espace probabilisé dans lequel les événements associés à des expériences aléatoires
indépendantes sont naturellement vus comme des événements mutuellement indépendants.
Voyons maintenant le cas d’un produit infini d’espaces probabilisés, dans un contexte restreint.
Il n’est pas possible de généraliser la notion d’espace probabilisé produit définie ci-dessus au cas d’une infinité
dénombrable (Ωi , Ti , Pi ), i ∈ N, d’espaces probabilisés quelconques.
On peut toujours généraliser la notion de tribu produit mais c’est la probabilité produit qui pose problème si on
ne fait pas certaines hypothèses sur la structure des espaces Ωi et des tribus Ti . Ceci nécessiterait de développer des
notions qui dépassent le cadre de ce cours.
Nous allons donc seulement considérer un cas particulier très important dans la pratique : soit E un ensemble
fini, P(E) la tribu de toutes les parties de E et P une probabilité sur P(E). Le triplet (E, P(E), P) modélisant une
expérience aléatoire E a un nombre fini d’issues. Considérons le produit cartésien
+∞
Y ∗
Ω = E × E × ··· × E × ··· = E = EN
i=1
d’une infinité dénombrable de copies de l’ensemble E. L’ensemble Ω est l’ensemble des suites infinies (xn )n∈N∗ d’élé-
ments de E.
Définition 16.48 : tribu cylindrique
+∞
Y
1. On appelle ensembles cylindriques ou plus simplement cylindres les sous-ensembles de Ω de la forme C = Ai ,
i=1
tels que Ai ⊂ E et Ai = E à partir d’un certain rang :
C = A1 × · · · × An C × E × E × · · · × E × · · ·
2. On appelle tribu cylindrique la tribu sur Ω engendrée par les cylindres. On la notera T .
Le théorème suivant, admis par le programme, permet de définir une probabilité sur T vérifiant les conditions
souhaitées.
Théorème 16.49 : une probabilité sur la tribu cylindrique
Il existe une unique probabilité P sur la tribu cylindrique T telle que, pour tout cylindre de la forme C =
A1 × · · · × AnC × E × · · · , on ait
nC
Y
P(C) = P(Ai ).
i=1
Remarque 16.50 :
Comme dans le cas d’un produit fini d’espaces probabilisés, on voit que des événements relatifs à des coordonnées
différentes, sont des événements indépendants pour la probabilité P.
Ce cadre convient à l’étude d’une infinité d’expériences indépendantes. L’expérience aléatoire consistant en une
infinité de répétitions indépendantes de l’expérience aléatoire E représentée par (E, P(E), P) est en effet modélisée par
l’espace probabilisé (Ω, T , P).
Exemple 16.51 :
1. On lance une infinité de fois une pièce de monnaie équilibrée. Ici, E = {P, F }, et P est la probabilité uniforme.
Le théorème assure donc que l’on peut définir un espace probabilisé (Ω, T , P) où Ω est l’ensemble des suites à
valeurs dans {P, F }.
Par ailleurs la probabilité d’obtenir une suite donnée de Piles ou Faces aux n0 > 0 premiers lancers et n’importe
1
quel résultat à partir du rang n0 + 1, est égale à n0 .
2
Pour tout n ∈ N∗ , au n-ième lancer, on peut également introduire la variable aléatoire de Bernoulli Xn (égale à
1 si l’on obtient Pile et 0 sinon). On définit ainsi une suite (Xn )n∈N∗ de variables aléatoires telles que :
n0
!
Y 1
P [Xk = xk ] = n0 .
2
k=1
(a) Calculer la probabilité d’obtenir le premier succès à la k-ième tentative (événement noté Ak ) (k ≥ 1).
(b) Préciser l’espace probabilisé dans lequel on peut modéliser le jeu et montrer que l’événement Ak de la
question 1) est un événement cylindrique.
(c) Quelle est la probabilité que le succès n’arrive jamais ?
16.3 Espérance
16.3.1 Définitions et premières propriétés
En Sup, nous avons défini pour une variable aléatoire X réelle et prenant pour valeurs x1 , . . . , xn , l’espérance de
X grâce à la formule :
Xn Xn
E(X) = xi PX (xi ) = xi P([X = xi ]).
i=1 i=1
Nous allons généraliser cette notion aux variables aléatoires réelles. La variable aléatoire X prend désormais un
nombre quelconque de valeurs (fini, dénombrable, ou non dénombrable). On la suppose pour le moment et pour plus
de commodité à valeurs positives : X(Ω) = {xk/ k ∈ N} avec xk ≥ 0 pour tout k. L’espérance de X est alors par
définition la somme (finie ou non) de la famille xk P([X = xk ]) .
k∈N
Définition 16.52 : espérance d’une variable aléatoire
Soit X une variable aléatoire réelle. On dit que X est d’espérance finie lorsque la famille xP (X = x) est
x∈X(Ω)
X
sommable. Sa somme E(X) = xP (X = x) est appelée espérance de X.
x∈X(Ω)
On notera L1 l’ensemble des variables aléatoires réelles admettant une espérance. L’écriture « X ∈ L1 » signifie
que X admet une espérance.
Lorsque la famille xP(X = x) n’est pas sommable (mais quand même à termes positifs), on dit parfois
x∈X(Ω)
que X admet une espérance infinie.
Remarque 16.53 :
• Une variable aléatoire prenant un nombre fini de valeurs admet toujours une espérance.
• Une variable aléatoire prenant un nombre dénombrable de valeurs n’admet pas toujours une espérance !
Exemple 16.54 :
Déterminer l’espérance de X, si elle existe, dans chacun des trois cas suivants :
1. On lance deux dés et on note X la variable aléatoire égale à la somme des numéros apparaissant sur les deux
dés.
2. Soit X une variable aléatoire prenant les valeurs n ∈ N∗ avec les probabilités :
1
P([X = n]) = .
n(n + 1)
3. Soit une variable aléatoire X prenant les valeurs n ∈ Z∗ avec les probabilités :
1
P(X = n) = .
2|n|(|n| + 1)
Alors : la variable aléatoire f (X) a une espérance finie si et seulement si la famille f (x)P(X = x) est
x∈X(Ω)
sommable. Dans ce cas : X
E(f (X)) = f (x)P(X = x).
x∈X(Ω)
Remarque 16.61 :
1. Le théorème de transfert nous donne une démonstration très courte de la linéarité de l’espérance. En effet il
vient λX + µY = f ◦ (X, Y ) où f (x, y) = λx + µy et X, Y sont deux variables aléatoires, donc sous réserve
d’existence :
X
E(λX + µY ) = E(f (X, Y )) = (λx + µy)P (X, Y ) = (x, y)
(x,y)
X
= (λx + µy)P([X = x] ∩ [Y = y])
(x,y)
X X
= λ xP([X = x] ∩ [Y = y]) + µ yP([X = x] ∩ [Y = y])
(x,y) (x,y)
X X X X
= λ x P([X = x] ∩ [Y = y]) + µ y P([X = x] ∩ [Y = y])
x y y x
X X
= λ xP ([X = x]) + µ yP([Y = y]) (FPT)
x y
= λE(X) + µE(Y ).
2. Ce théorème prouve par la même occasion qu’il n’est pas nécessaire de déterminer la loi de f (X) pour calculer
l’espérance de f (X) : on n’a besoin que de connaître la loi de X et la fonction f .
Exemple 16.62 :
1 2 2
Soit X une variable aléatoire ne prenant que les valeurs −1, 0 et 1 avec les probabilités , et .
9 9 3
Alors X 2 a pour espérance (en posant f (x) = x2 ) :
1 2 2 7
E(X 2 ) = f (−1)P(X = −1) + f (0)P(X = 0) + f (1)P(X = 1) = 1 × +0× +1× = .
9 9 3 9
Exemple 16.66 :
On lance deux dés. On note X et Y le minimum et le maximum obtenus sur les faces des deux dés. On a ainsi
X ≤ Y et donc E(X) ≤ E(Y ).
Remarque 16.70 :
La réciproque de cette proposition est fausse. Il se peut E(XY ) = E(X)E(Y ) sans que X et Y soient indépendantes.
Exemple 16.71 :
1
Considérons X la variable aléatoire de loi uniforme sur {−1, 0, 1} (P(X = −1) = P(X = 0) = P(X = 1) = ) et
3
Y = X 2 . Démontrer que E(XY ) = E(X)E(Y ) avec X et Y non indépendantes.
Remarque 16.73 :
Attention, il ne suffit pas que les variables aléatoires soient seulement indépendantes deux à deux.
Exemple 16.74 :
Revenons sur l’exemple 16.40. On considère un lancer de deux dés et les variables X, Y , Z de Bernoulli définies
par : (X = 1) lorsque le premier dé donne un résultat pair ; (Y = 1) lorsque le second dé donne un résultat pair ;
(Z = 1) lorsque la somme des résultats des deux dés donne un résultat pair. Les variables aléatoires X, Y et Z sont
1 1
indépendantes deux à deux, mais E(XY Z) = et E(X)E(Y )E(Z) = .
4 8
1. Il est clair que X et Y sont indépendantes.
2. Prouvons que X et Z sont indépendantes.
1 1 1
D’une part P(X = i)P(Z = j) = × = . D’autre part, comme déjà vu, l’événement [X = 1] ∩ [Z = 1] n’est
2 2 4 1
réalisé que pour P P , donc P [X = 1] ∩ [Z = 1] = .
4
Puisque X et Z sont des variables de Bernoulli, ceci suffit à prouver leur indépendance (d’après la proposi-
tion 16.39).
XY Z(P P ) = 1 × 1 × 1 = 1, XY Z(P I) = 1 × 0 × 0 = 0,
XY Z(IP ) = 0 × 1 × 0 = 0, XY Z(II) = 0 × 0 × 1 = 0,
donc X 1
E(XY Z) = xP(XY Z = x) = 1 × P(XY Z = 1) + 0 × P(XY Z = 0) = ,
4
x∈{0,1}
1
alors que E(X)E(Y )E(Z) = .
8
16.3.3 Moments
Définition 16.75 : moment d’ordre m (hors programme)
Soit X une variable aléatoire réelle et m ∈ N∗ . Si X m admet une espérance finie, on dit que X admet un
moment d’ordre m, et ce moment d’ordre m est E(X m ).
Remarque 16.76 :
1. Dire que X admet un moment d’ordre 1 signifie donc que X admet tout simplement une espérance !
2. Lorsque X admet un moment d’ordre 2 nul, alors P(X = 0) = 1 c’est-à-dire X = 0 presque sûrement.
X
En effet E(X 2 ) = x2 P(X = x). Si E(X 2 ) = 0 alors pour tout x 6= 0 il vient P(X = x) = 0. Or
x∈X(Ω)
(X = x) forme un SCE, donc P(X = 0) = 1.
x∈X(Ω)
On désigne par L2 l’ensemble des variables aléatoires X telles que X 2 est d’espérance finie.
Proposition 16.77 : E(X 2 ) est finie ⇒ E(X) est finie, ou encore L2 ⊂ L1
Soit X une variable aléatoire réelle admettant un moment d’ordre deux. Alors X admet une espérance finie.
Remarque 16.78 :
Cette propriété peut facilement être généralisée : l’existence d’un moment d’ordre m entraîne les existences des
moments d’ordre n ≤ m. Ceci repose sur l’inégalité xn−1 ≤ xn + 1.
En d’autres termes L1 ⊃ L2 ⊃ · · · ⊃ Ln .
Théorème 16.79 : inégalité de Cauchy-Schwarz
Soit X et Y deux variables aléatoires dans L2 .
Alors XY ∈ L1 et E(XY )2 ≤ E(X 2 )E(Y 2 ).
Par ailleurs l’égalité est obtenue si et seulement si X et Y sont presque partout colinéaires, c’est-à-dire colinéaires
sauf éventuellement sur un ensemble négligeable.
Enfin l’application (X, Y ) 7→ E(XY ) est une forme bilinéaire symétrique positive sur L2 × L2 .
On a défini l’espérance, qui est une moyenne des valeurs prises par une variable aléatoire X, pondérée par les
probabilités. On définit maintenant une quantité permettant de mesurer l’écart autour de cette moyenne, c’est-à-dire
l’écart autour de l’espérance.
Définition 16.81 : variance
Soit X une variable aléatoire réelle élément de L2 . On définit alors la variance de X, notée V (X), par :
V (X) = E (X − E(X))2
et l’écart-type de X par : p
σ(X) = V (X).
Remarque 16.82 :
1. Une variable aléatoire ne prenant qu’un nombre fini de valeurs admet toujours une espérance, des moments à
tout ordre et donc une variance.
2. La définition de la variance a un sens.
En effet X étant dans L2 est également dans L1 , ainsi en posant m = E(X) : la variable aléatoire (X − m)2 =
X 2 − 2mX + m2 admet bien une espérance.
Remarque 16.85 :
Si X est une variable aléatoire réelle admettant un écart-type nul, alors X est presque sûrement égale à une variable
aléatoire constante : P(X = E(X)) = 1.
En effet si σ(X) = 0 alors E (X − E(X))2 = 0 donc P (X − E(X))2 = 0 = 1 c’est-à-dire P(X = E(X)) = 1.
Remarque 16.87 :
La quantité P(|X − E(X)| ≥ ε) est la probabilité que X prenne des valeurs dont la distance à E(X) est supérieure
ou égale à ε. Cette probabilité est d’autant plus faible que ε est grand et que V (X) est petit (la variance mesure la
dispersion des valeurs prises par X).
Définition 16.88 : covariance
Soit X et Y deux variables aléatoires réelles et éléments de L2 .
On appelle covariance de X et de Y le nombre réel
cov(X, Y ) = E (X − E(X))(Y − E(Y )) ,
qui existe puisque X, Y et XY admettent de fait une espérance (cf. proposition 16.77 et théorème 16.79).
Proposition 16.89 : existence de la covariance
Soit X et Y deux variables aléatoires réelles et éléments de L2 .
La définition de la covariance et de la linéarité de l’espérance permettent d’obtenir les règles de calcul ci-dessous :
Proposition 16.90 : propriétés de la covariance
Soit X , X 0 , Y et Y 0 quatre variables aléatoires réelles et éléments de L2 . Fixons a, b, c, d quatre réels. Alors :
1. cov(Y, X) = cov(X, Y ).
2. cov(X, X) = V (X).
3. cov(aX + b, cY + d) = ac cov(X, Y ).
4. cov(aX + bX 0 , cY + dY 0 ) = ac cov(X, Y ) + bc cov(X 0 , Y ) + ad cov(X, Y 0 ) + bd cov(X 0 , Y 0 ).
Remarque 16.91 :
La covariance est donc une forme bilinéaire symétrique positive sur l’espace vectoriel des variables aléatoires réelles
admettant un moment d’ordre deux.
Proposition 16.92 : deux variables aléatoires indépendantes sont de covariance nulle
Soit X et Y deux variables aléatoires réelles.
Si X et Y sont indépendantes et éléments de L2 , alors cov(X, Y ) = 0.
Remarque 16.93 :
La contraposée de cette proposition est souvent utilisée : si cov(X, Y ) 6= 0 alors X et Y ne sont pas indépendantes.
Attention : si cov(X, Y ) = 0, on ne peut rien conclure quant à l’indépendance de X et Y .
Définition 16.94 : VA non corrélées
Soit X et Y deux variables aléatoires admettant une covariance nulle.
On dit alors que les variables X et Y sont non corrélées.
Proposition 16.95 : variance de la somme
Soit X et Y deux variables aléatoires réelles. Si elles sont dans L2 , alors :
1. La variable aléatoire X + Y a un moment d’ordre deux et V (X + Y ) = V (X) + V (Y ) + 2 cov(X, Y ).
2. Si X et Y sont indépendantes, alors V (X + Y ) = V (X) + V (Y ).
2. Si les variables X1 , . . . , Xn sont deux à deux indépendantes (pas besoin qu’elles soient mutuellement indépen-
dantes), alors :
n
X
V (X1 + · · · + Xn ) = V (Xi ).
i=1
Remarque 16.97 :
Cette propriété implique que la variance d’une somme de variables aléatoires (réelles et admettant toutes un
moment d’ordre deux) est la somme des variances dès que les variables aléatoires sont deux à deux non corrélées.
Remarque 16.99 :
L’inégalité démontrée sous les hypothèses précédentes :
σ2
Sn
P − m ≥ ε ≤
n nε2
est importante et souvent utilisée en exercice, donc il convient de savoir la retrouver.
Exemple 16.100 :
On considère une suite d’épreuves indépendantes.
Fixons un événement A, de probabilité p. On note Xn la variable de Bernoulli égale à 1 lorsque A est réalisé à la
n-ième épreuve. Les variables (Xn )n∈N∗ sont indépendantes et de même loi, d’espérance p. La fréquence, notée Fn ,
Sn
de réalisation de l’événement A au cours des n premières épreuves est égale à la variable aléatoire . D’après la loi
n
faible des grands nombres :
∀ε > 0, lim P(|Fn − p| ≥ ε) = 0.
n→+∞
pour les valeurs réelles de t telles que la variable aléatoire tX admet une espérance finie.
Remarque 16.102 :
L’application tX , à t réel fixé, est une variable aléatoire réelle dont l’espérance est obtenue en utilisant le théorème
de transfert.
Proposition 16.103 : propriétés de la série génératrice d’une variable aléatoire
Soit X une variable aléatoire à valeurs dans N. Alors :
1. Le rayon R de convergence de la série entière GX est supérieur ou égal à 1.
2. Soit k ∈ N. Alors :
(k)
GX (0)
P([X = k]) = .
k!
Remarque 16.104 :
Grâce à la proposition précédente, on déduit que deux variables aléatoires ayant des fonctions génératrices égales
sur un intervalle ouvert centré en 0 sont équiréparties : GX = GY ⇒ PX = PY . Elles ne sont pas pour autant égales !
Dans le cas où l’on suppose seulement R ≥ 1, les propriétés sur les séries entières vont permettre de généraliser la
proposition précédente.
Proposition 16.105 : fonction génératrice, espérance et variance
Soit X une variable aléatoire à valeurs dans N. Alors :
1. La variable aléatoire X admet une espérance finie si et seulement si la série entière GX est dérivable en 1.
Dans ce cas : G0X (1) = E(X).
2. La variable aléatoire X admet un moment d’ordre deux si et seulement si GX est deux fois dérivable en 1.
Dans ce cas G00X (1) = E(X(X − 1)) et V (X) = G00X (1) + G0X (1) − G0X (1)2 .
Remarque 16.106 :
On peut généraliser ce résultat et montrer, pour tout entier n, que X admet un moment d’ordre n si et seulement
si GX admet une dérivée n-ième à gauche en 1. Dans ce cas :
(n)
E X(X − 1) · · · (X − n + 1) = GX (1).
Remarque 16.117 :
Intuitivement, l’expression de l’espérance peut se comprendre par le fait que, pour n épreuves, le nombre de succès
est approximativement np (n lancers, chacun ayant p comme probabilité de réussite) et que, pour obtenir le premier
n
succès, il faut s’attendre à effectuer épreuves.
np
Proposition 16.118 : absence de mémoire de la loi géométrique
La loi géométrique est la seule loi de probabilité à valeurs dans N∗ et vérifiant :
Remarque 16.119 :
Cette propriété se traduit en disant que la loi géométrique est sans mémoire : le nombre d’épreuves à répéter
jusqu’à l’obtention d’un premier succès est le même quel que soit le nombre d’épreuves effectuées auparavant.
En considérant l’épreuve-type, l’égalité PX>n (X > n + m) = P(X > m) peut se traduire par « la probabilité qu’il
n’y ait pas encore eu de succès à l’instant n + m, sachant qu’il n’y en avait pas eu avant l’instant n, est égale à la
probabilité qu’il n’y ait pas eu de succès à l’instant m ».
Remarque 16.123 :
Soit X une variable aléatoire de loi de Poisson P(λ).
1. Alors X prend des valeurs assez petites, car la probabilité P([X = k]) est petite pour k grand.
Ceci justifie le fait que la loi de Poisson est souvent appelée « loi des événements rares ».
2. Nous avons effleuré en Terminale (sous la dénomination d’intervalle de fluctuation) le comportement asympto-
tique d’une suite de lois binomiales. Approfondissons la question :
Proposition 16.124 : approximation d’une limite de loi binomiale par une loi de Poisson
Soit (Xn )n∈N une suite de variables aléatoires telle que pour tout n, Xn suit une loi binomiale de paramètres
(n, pn ) : Xn ,→ B(n, pn ).
On suppose que lorsque n tend vers l’infini le produit n · pn des paramètres tend vers une limite λ > 0. Alors :
λk
∀k ∈ N, lim P(Xn = k) = e−λ .
n→+∞ k!
Remarque 16.125 :
Avec les notations de la proposition.
Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ.
Alors lim E(Xn ) = lim npn = λ = E(X) et lim V (Xn ) = lim npn (1 − pn ) = λ = V (X).
n→+∞ n→+∞ n→+∞ n→+∞
Cette approximation d’une suite de lois binomiales par une loi de Poisson est très utile, car les lois de Poisson sont
plus facilement manipulables.
Remarque 16.126 :
Soit Xn une loi binomiale B(n, pn ). La variable aléatoire Xn représente le nombre de succès au cours de n expériences
de Bernoulli indépendantes de paramètres respectifs pn .
Or lim npn = λ donc la suite (pn )n tend vers 0 et ainsi la probabilité du succès des expériences de Bernoulli
n→+∞
tend vers 0.
En pratique, l’usage est de considérer l’approximation d’une loi binomiale B(n, p) par une loi de Poisson comme
valable dès que n > 20, p ≤ 0, 1 et np ≤ 5.
Exemple 16.127 :
Supposons que la probabilité de gagner au tiercé soit de 10−3 . Quelle est la loi de probabilité du nombre de succès
d’une personne qui joue 100 fois (parfaitement au hasard, sans chercher à connaître les chevaux) ? Comparer avec une
loi de Poisson.
La variable aléatoire X représentant le nombre de succès suit la loi binomiale B(n, p) avec n = 100, p = 10−3 .
D’où :
100 999100−k
P1 (X = k) = .
k 1000100
Cette loi est difficile à calculer. On peut l’approcher par une loi de Poisson de paramètre λ = np = 10−1 . D’où :
10−k
P2 (X = k) = e−0,1 .
k!
Le calcul est beaucoup plus simple. Comparons les résultats, à l’aide d’une calculatrice :
k 0 1 2 3
P1 (k) 0, 90479 0, 09057 0, 00449 0, 000147
P2 (k) 0, 90484 0, 09048 0, 00452 0, 000151
Remarque 16.129 :
Lorsque X et Y sont deux variables aléatoires réelles à valeurs dans N, la loi de la variable Z = X + Y , à valeurs
également dans N, s’obtient de la même manière que dans la démonstration ci-dessus, en écrivant :
k
X
P(Z = k) = P([X = i] ∩ [Y = k − i])
i=0
EPCC : exercices 95, 96, 97, 98, 99, 100, 102, 103, 104, 106, 108, 109, 110, 111.
Convexité
D = {(x, y, z) ∈ R3 ; ax + by + cz = d ∧ a0 x + b0 y + c0 z = d0 }
D = {(x, y, z) ∈ R3 ; ax + by + cz = 0 ∧ a0 x + b0 y + c0 z = 0}.
Remarque 17.3 :
207
17.1. SOUS-ESPACES AFFINES MP 2022-23
1. Une bonne partie de cette section repose sur l’ambigüité suivante : en fait les vecteurs sont des points, et
réciproquement !
2. L’ensemble vide n’est pas un sous-espace affine.
−−→
3. Lorsque B et C sont dans F on note BC pour C −B ; c’est un vecteur de F . (En effet si B = A+ −
→ et C = A+ −
u1
→
u 2
−
→ −
→
avec (u1 , u2 ) ∈ F 2 alors C − B = A + u2 − (A + u1 ) = u2 − u1 ∈ F .)
4. Par convention les lettres minuscules désignent les vecteurs de F et les lettres majuscules les points de F.
5. Lorsqu’on considère le point 0E on le note souvent O.
17.1.2 Translations
Définition 17.7 : translation
Soit →
−u ∈ E. On appelle translation de vecteur →
−
u l’application t→ →
− 7 →
u : E → E, x →
−
−
x +→
−
u.
On note T l’ensemble des translations de E.
Proposition 17.8 : propriétés immédiates
1. t→
− = IdE .
0
2. Pour tout (→
−
u,→
−
v ) ∈ E 2 on a : t→
u ◦ t→
− v = t→
− − v.
u +→
−
→
−
3. Pour tout u ∈ E l’application t→
−u est bijective de réciproque t−→
u.
−
Exemple 17.13 :
Dans l’espace usuel l’intersection d’une droite et d’un plan, de deux droites, de deux plans, est soit vide, soit un
singleton, soit une droite, soit un plan.
Définition 17.14 : parallélisme
Soit F1 et F2 deux sous-espaces affines de E de directions respectives F1 et F2 .
1. On dit que F1 est parallèle à F2 lorsque F1 ⊂ F2 .
2. On dit que F1 et F2 sont parallèles lorsque F1 = F2 .
Exemple 17.15 :
1. Une droite peut être parallèle à un plan, mais un plan ne peut pas être parallèle à une droite.
2. Tout sous-espace affine et sa direction sont parallèles (exemple des droites du plan).
3. Les plans affines d’équation x + y + z = 10 et 2x + 2y + 2z = 3 sont parallèles car ils ont pour direction commune
le plan vectoriel d’équation x + y + z = 0.
Remarque 17.20 :
Si E = R, on retrouve la définition usuelle d’un segment.
Définition 17.21 : partie convexe
Une partie C de E est convexe lorsqu’elle contient tous les segments d’extrémités dans C :
∀(x, y) ∈ C 2 , [x, y] ⊂ C.
Exemple 17.22 :
1. Une très jolie démonstration utilisant la propriété de la borne supérieure dans R et un examen de (neuf) cas
permet de démontrer que : les ensembles convexes de R sont les intervalles de R.
2. Les espaces vectoriels et les espaces affines sont convexes.
3. Les boules (ouvertes ou fermées) sont convexes.
4. Les sphères ne sont pas convexes.
5. Les bananes ne sont pas convexes.
Les points 2. à 4. sont de bons exercices !
Proposition 17.23 : intersection de convexes
L’intersection d’une famille de parties convexes est convexe.
Remarque 17.24 :
La réunion d’ensembles convexes n’est pas convexe en général.
Considérer par exemple [1, 2] ∪ [3, 4], non-convexe alors que [1, 2] et [3, 4] le sont.
Remarque 17.26 :
Ceci signifie que tous les points de l’arc « M1 M2 » sont situés sous la corde [M1 M2 ] :
Exemple 17.27 :
Les fonctions affines, la fonction carré x 7→ x2 , la fonction x 7→ |x|.
La fonction f est convexe sur I si et seulement si les taux d’accroissements sont croissants :
f (x) − f (y) f (x) − f (z) f (y) − f (z)
∀(x, y, z) ∈ I 3 , x < y < z =⇒ ≤ ≤ .
x−y x−z y−z
Exemple 17.37 :
∀x ∈ R, ex ≥ 1 + x et ∀x > −1, ln(1 + x) ≤ x.
De cette inégalité découlent de multiples autres fournissant autant d’exercices d’oraux. . . Nous verrons des illustra-
tions dans la sous-section suivante.
Exemple 17.41 :
1. Démontrer que : ∀(a, b, c) ∈ R3+ , a3 + b3 + c3 ≥ 3abc.
Inégalité arithmético-géométrique avec (x1 , x2 , x3 ) = (a3 , b3 , c3 ).
2. Démontrer que : ∀(a, b, c) ∈ R3+ , (a + b + c)3 ≥ 27abc.
Inégalité arithmético-géométrique avec (x1 , x2 , x3 ) = (a, b, c) puis élevée au cube.
√ n+1
3. Démontrer que : ∀n ∈ N∗ , n n! ≤ .
2
Inégalité arithmético-géométrique avec (x1 , . . . , xn ) = (1, . . . , n).
Remarque 17.44 :
Lorsque p = q = 2, on retrouve l’inégalité de Cauchy-Schwarz pour le produit scalaire usuel dans Rn :
n n
!1/2 n
!1/2
X X X
ai bi ≤ a2i b2i .
i=1 i=1 i=1
a : I → L(E)
t 7→ a(t)
x : I → E
t 7 → x(t)
I → E
t 7→ a(t) (x(t))
où A(t) est la matrice (carrée) représentant l’endomorphisme a(t), et B(t) la matrice (unicolonne) représentant le
vecteur b(t).
Remarque 18.2 :
cas particulier des équations scalaires
215
18.1. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE 1 MP 2022-23
Si E = K, l’équation différentielle est une équation scalaire. Vous l’avez étudiée en Première Année. Les solutions
sont les fonctions de la forme :
x(t) = x1 (t) + Ceα(t)
où α est une primitive sur I de la fonction a, C une constante, et x1 une solution particulière que l’on peut obtenir
par la méthode de la variation de la constante, c’est-à-dire sous la forme C(t)eα(t) où C est cette fois une fonction
dérivable.
Exemple 18.3 :
1
x0 = y + 1
t
Résoudre le système différentiel : , où x et y sont deux fonctions dérivables sur R∗+ .
1
y0 = x + 1
t
La solution d’un problème de Cauchy est donnée par le théorème suivant, que nous admettrons :
Théorème 18.7 : théorème de Cauchy-Lipschitz linéaire
Soit E un espace vectoriel normé de dimension finie, I un intervalle de R, a une application continue de I dans
L(E), b une application continue de I dans E. Pour tout (t0 , x0 ) ∈ I × E, il existe une et une seule solution sur I de
l’équation différentielle x0 = a x + b vérifiant la condition initiale x(t0 ) = x0 .
On peut en déduire la dimension de l’espace des solutions sur un intervalle :
Corollaire 18.8 : dimension de l’espace des solutions de x0 = ax
Soit E un espace vectoriel normé de dimension finie, I un intervalle de R, a une application continue de I dans
L(E), E0 l’espace vectoriel des solutions de l’équation homogène x0 = a x.
Alors pour tout t0 ∈ I, l’application de E0 dans E qui à f associe f (t0 ) est un isomorphisme. Il en résulte que
dim E0 = dim E.
Remarque 18.9 :
Attention : Ce résultat n’est valable que sur un intervalle. L’espace des solutions sur une réunion d’intervalles
peut être de dimension supérieure à celle de E. Par exemple, l’espace des solutions sur R∗ de l’équation x0 = 0 est de
dimension 2 : x(t) = C1 sur ] − ∞, 0[ et x(t) = C2 sur ]0, +∞[.
Si (x1 , . . . , xn ) est un système fondamental de solutions, alors toute solution de l’équation x0 = a x est combinaison
linéaire de (x1 , . . . , xn ) :
E0 = Vect(x1 , . . . , xn ).
Si B est une base de E, alors on peut représenter le système fondamental par la matrice :
Il n’y a hélas pas de méthode systématique pour trouver un système fondamental de solutions. On peut chercher des
solutions évidentes, ou sous une forme donnée (polynôme, exponentielle, etc, comme déjà expliqué).
On peut en revanche vérifier qu’une famille donnée de n solutions est bien un système fondamental :
Définition 18.11 : wronskien d’une famille de solutions
Pour toute famille (x1 , . . . , xn ) de solutions de l’équation homogène, on appelle wronskien relativement à une base
B de E, l’application W de I dans K définie par :
On a alors : +∞
X +∞
X
n−1
0
(n + 1)an+1 tn
x (t) = na t =
n
n=1 n=0
∀t ∈] − R, R[, +∞ +∞ .
X X
n−1
y 0
(t) = nb t = (n + 1)bn+1 tn
n
n=1 n=0
On vérifie a posteriori à l’aide du critère de d’Alembert que ces séries entières ont un rayon de convergence infini.
Aussi, ces solutions sont-elles définies sur R.
Attention
! : comme l’ensemble
! des solutions du système est un espace vectoriel de dimension 2, il existe une
! solution
!
x2 x1 x1 x2
, non colinéaire à et qui n’est pas développable en série entière à l’origine. Une solution α +β
y2 y1 y1 y2
n’est développable en série entière que si β = 0.
18.2.3 Cas où la matrice A(t) est diagonalisable dans une base fixe
Supposons que la matrice A(t) est diagonalisable dans une base indépendante de t : il existe une matrice diagonale
D(t) et une matrice inversible P (indépendante de t) telles que :
∀t ∈ I, A(t) = P D(t)P −1 .
L’équation différentielle homogène s’écrit donc : X 0 (t) = P D(t)P −1 X(t). Posons U (t) = P −1 X(t) ; on a alors U 0 (t) =
P −1 X 0 (t) (grâce au fait que P est constante). Le vecteur U (t) est solution de l’équation différentielle : U 0 (t) = D(t)U (t),
qui se ramène à un système de n équations scalaires :
0
u1 (t) = d1 (t)u1 (t)
···
0
un (t) = dn (t)un (t)
Exemple 18.15 :
Résoudre le système : (
x0 (t) = (t − 2) x(t) − (t − 1) y(t)
y 0 (t) = 2(t − 1) x(t) − (2t − 1) y(t)
! !
x0 0
Tracer les solutions qui passent en t0 = 0 par le point = où y0 ∈ [[−5, 5]].
y0 y0
Ce résultat permet d’obtenir les fonctions c0i , d’où les fonctions ci à une constante près (les mêmes constantes
qui permettent de décrire l’ensemble des solutions de l’équation homogène). Deux méthodes : ou bien on oublie ces
constantes pour écrire une solution particulière, et on ajoute ensuite l’ensemble des solutions de l’équation homogène ;
ou bien on tient compte de ces constantes d’intégration et on obtient directement l’ensemble des solutions.
Exemple 18.18 :
Résoudre le système différentiel :
x0 (t) = x(t) − y(t) + t
t
y 0 (t) = x(t) + y(t) + t
t
! !
x1 (t) t cos t
On remarquera que le système homogène a deux solutions évidentes : t 7→ = et t 7→
y1 (t) t sin t
! !
x2 (t) −t sin t
= .
y2 (t) t cos t
∀t ∈ R, x0 (t) = a (x(t)) .
∀t ∈ I, X 0 (t) = AX(t)
Exemple 18.21 : (
x0 (t) = x(t) cos θ − y(t) sin θ
Résoudre le système pour θ ∈ R fixé.
y 0 (t) = x(t) sin θ + y(t) cos θ
Un système fondamental de solutions de l’équation homogène est donc constitué des fonctions t 7→ eλi t ei , où (e1 , . . . , en )
est la base de vecteurs propres. L’ensemble des solutions de l’équation homogène est l’ensemble des fonctions x de la
forme :
X n
x(t) = ci eλi t ei .
i=1
Dans le cas général, il faut résoudre l’équation sur chaque intervalle où la fonction a ne s’annule pas. L’espace
des solutions sur la réunion de p intervalles disjoints est alors de dimension p. Dans certains cas, certaines solutions
peuvent être prolongées par continuité et dérivabilité en un point t0 où a(t0 ) = 0, ce qui permet de « recoller » des
solutions de part et d’autre de t0 . La dimension de l’espace des solutions peut en être abaissée.
Exemple 18.23 :
Résoudre l’équation différentielle : x0 sin t − x cos t = sin3 t.
Exemple 18.24 :
Considérons l’équation différentielle : t2 x00 − 2tx0 + 2x = 2t2 . Chercher des solutions de l’équation homogène sur
R∗ sous la forme t 7→ tn avec n ∈ N. En déduire l’ensemble des solutions de l’équation.
18.5.3 Cas où l’on connaît une solution de l’équation homogène (méthode d’abaisse-
ment de l’ordre)
Considérons l’équation différentielle :
Supposons connue une solution x0 de l’équation homogène sur un intervalle I où la fonction a ne s’annule pas. On
peut chercher une solution quelconque de l’équation complète sous la forme : x(t) = z(t)x0 (t). On a alors :
x(t) = z(t)x0 (t)
x0 (t) = z 0 (t)x0 (t) + z(t)x00 (t)
00
x (t) = z 00 (t)x0 (t) + 2z 0 (t)x00 (t) + z(t)x000 (t)
D’où :
a(t)x00 (t) + b(t)x0 (t) + c(t)x(t) =
a(t)x0 (t)z 00 (t) + (2a(t)x00 (t) + b(t)x0 (t)) z 0 (t) + (a(t)x000 (t) + b(t)x00 (t) + c(t)x0 (t)) z(t)
Comme a(t)x000 (t) + b(t)x00 (t) + c(t)x0 (t) = 0, l’équation différentielle devient :
Calcul différentiel
Dans tout le chapitre : soit E et F deux espaces vectoriels normés réels de dimension finie, et f une fonction définie
sur un ouvert U de E à valeurs dans F .
Exemple 19.5 :
Déterminer un développement limité à l’ordre 1 de l’application f : Mn (R) → Mn (R) définie par f (M ) = M 2 .
Remarque 19.6 :
1. Insistons sur le fait qu’une fonction différentiable en a est automatiquement continue en a.
2. Bien entendu, si une application différentiable sur un ouvert est constante alors sa différentielle est nulle.
225
19.1. APPLICATIONS DIFFÉRENTIABLES MP 2022-23
Alors : f est différentiable en a si et seulement si elle est dérivable en a. Dans ce cas dfa : R → F , t 7→ t × f 0 (a),
et en particulier dfa (1) = f 0 (a).
f (a + tu) − f (a)
lim = Du f (a).
t→0 t
Remarque 19.10 :
La réciproque est fausse : une fonction peut admettre une dérivée selon n’importe quel vecteur sans pour autant
être différentiable (voir exercices).
∂f
Ceci nous donne une application = D ei f : U → F .
∂xi
Théorème 19.12 : expression de la différentielle à l’aide des dérivées partielles
Soit f une fonction de E dans F définie sur un ouvert U , et a un point de U .
Si f est différentiable en a, alors pour toute base (e1 , . . . , en ) de E, f admet des dérivées partielles et f est continue.
n
De plus, pour tout vecteur u = ui ei de E, la dérivée de f en a selon u est donnée par :
P
i=1
n n
X X ∂f
Du f (a) = dfa (u) = ui Di f (a) = ui a.
i=1 i=1
∂xi
Fixons (ei )i une base orthonormée de E. Notons (dxi )i = (pi )i sa base duale, c’est-à-dire telle que dxi (ej ) = δi,j
(symbole de Kronecker). Il vient dxi (u) = ui , d’où :
n n
X X ∂f
dfa = Di f (a) dxi = (a) dxi .
i=1 i=1
∂xi
∂f ∂f ∂f
dfa = (a) dx + (a) dy + (a) dz.
∂x ∂y ∂z
∂f
Par ailleurs, gardons toujours à l’esprit que dans le cas général (a) = Dei f (a).
∂xi
2. Si E et F sont de dimension finie, alors toute application bilinéaire de E × F dans G est continue.
2. Soit B : F 2 → G une application bilinéaire à valeurs dans un R-espace vectoriel G, et f , g deux applications
définies et différentiables sur U , à valeurs dans F .
Alors B(f, g) est différentiable sur U et
Exemple 19.20 :
avec : x = ρ cos θ, y = ρ sin θ. On a : F = f ◦ ϕ, où ϕ(ρ, θ) = (ρ cos θ, ρ sin θ). D’où J(F ) = J(f ◦ ϕ) = J(f ) × J(ϕ)
c’est-à-dire :
∂x ∂x
!
∂F ∂F ∂f ∂f ∂ρ ∂θ ∂f ∂f cos θ −ρ sin θ
= ∂y ∂y =
∂ρ ∂θ ∂x ∂y ∂x ∂y sin θ ρ cos θ
∂ρ ∂θ
soit :
∂F ∂f ∂f
= cos θ + sin θ
∂ρ ∂x ∂y
∂F ∂f ∂f
= − ρ sin θ + ρ cos θ
∂θ ∂x ∂y
Nous aurons besoin du résultat suivant pour définir la circulation d’un champ de vecteurs le long d’un arc :
Proposition 19.21 : dérivée le long d’un arc
Fixons E et F deux espaces vectoriels euclidiens. Soit (I, γ) un arc paramétré de classe C 1 sur un intervalle I de
R et à valeurs dans un ouvert U de E. Considérons f une fonction différentiable sur U et à valeurs dans F .
Alors la fonction f ◦ γ : I → U → F est dérivable sur I et :
Considérons Γ = ([a, b], γ) un arc paramétré de classe C 1 (avec γ à valeurs dans U ), orienté et dont tous les points
sont réguliers.
Définition 19.31 : intégrale curviligne
Z b
L’intégrale ω(γ(t)) γ 0 (t) dt est appelée intégrale curviligne ou circulation de la forme différentielle U le long
I a
de γ, notée ω(γ)dγ.
Γ
Remarque 19.32 :
Z b
1. En fait l’intégrale ω(γ(t)) · γ 0 (t)dt ne dépend pas du paramétrage ([a, b], γ) de l’arc Γ.
a
C’est un résultat hors-programme assez technique à démontrer.
2. Cet outil est utile en Physique.
I
Méthode : pour calculer l’intégrale curviligne U avec ω = P dx + Qdy, on choisira un paramétrage de
( Γ
x = x(t)
Γ. Par exemple en dimension 2 : , et on calculera :
y = y(t)
Z b
P x(t), y(t) x0 (t) + Q x(t), y(t) y 0 (t) dt.
I =
a
Exemple 19.33 :
x(t) = cos t
Soit C le cercle de R paramétré par γ(t) :
3
y(t) = sin t avec t ∈ [0, 2π]. Calculer la circulation sur C de la
z(t) = 0
y x
forme différentielle U définie par ω(x, y, z) = − 2 , , 0 .
x + y 2 x2 + y 2
Remarque 19.34 :
xdy − ydx xdy − ydx
Z
ω(γ) · dγ = 2 2
donc on écrira aussi 2 2
= 2π.
x +y C x +y
Théorème 19.35 : intégrale curviligne de d f
Soit ω = df une forme différentielle sur un ouvert U dérivant de la fonction f : U → R différentiable sur U .
Alors l’intégrale curviligne sur un arc Γ = ([a, b], γ) ne dépend que des extrémités A = γ(a), B = γ(b) (et pas du
trajet parcouru) : Z
df = f (B) − f (A).
Γ
Corollaire 19.36 : (de la prop. 19.21) caractérisation des fonctions différentiables constantes
Soit U un ouvert connexe par arcs de classe C 1 de E, et f une application de classe C 1 sur U et à valeurs dans R.
Alors : f est constante sur U si et seulement si sa différentielle sur U est nulle.
Remarque 19.37 :
1. Attention, il faut que U soit connexe par arcs ! Pensez à f = χR+ restreinte à R∗ , valant 1 sur R∗+ et 0 sur R∗− :
sa différentielle est nulle mais f n’est pas constante pour autant.
2. Si U est un ouvert quelconque, alors : une fonction de classe C 1 dont la différentielle sur U est nulle est constante
sur chaque composante connexe par arcs de classe C 1 de U .
3. On rappelle que si U est convexe alors U est étoilée par rapport à un de ses points, d’où U est connexe par arcs
de classe C 1 .
Afin d’examiner l’expression du gradient en coordonnées polaires, détaillons les dérivées partielles en coordonnées
polaires :
Proposition 19.38 : dérivées partielles en coordonnées polaires
Nous avons :
∂ ∂ sin θ ∂ ∂ ∂ cos θ ∂
= cos θ − et = sin θ + .
∂x ∂r r ∂θ ∂y ∂r r ∂θ
Exemple 19.42 :
→
− →
−
1. Soit X un sous-espace affine de E, de direction X . Démontrons que Tx X = X . Fixons x ∈ X.
→
−
• Rappelons que si a et b sont dans l’espace affine X, alors a − b est dans l’espace vectoriel sous-jacent X .
Cet espace étant de dimension finie, il est fermé.
γ(t) − x
Considérons un arc γ de X dérivable en 0, il vient γ 0 (0) = limt→0 Or γ(t) et x sont dans X et X
→
− t
est fermé car de dimension finie), γ 0 (0) ∈ X .
→
−
Par conséquent Tx (X) ⊂ X .
→
−
• Soit v un vecteur de X . L’arc γ défini sur R par γ : t 7→ x + tv est à valeurs dans X et vérifie γ(0) = x et
→
−
γ 0 (0) = v, donc v ∈ Tx (X). Par conséquent X ⊂ Tx (X).
→
−
En définitive, comme annoncé Tx (X) = X .
2. Soit E un espace euclidien de dimension n et S la sphère de centre O et de rayon R > 0. Soit x un vecteur de
S. Démontrons que Tx S est l’hyperplan vectoriel {x}⊥ .
• Soit v un vecteur tangent à S en x.
Il existe un arc γ défini sur V ∈ V(0), à valeurs dans S, dérivable en 0, tel que γ(0) = x et γ 0 (0) = v.
Pour tout t ∈ V , kγ(t)k2 = R2 , d’où, en dérivant en 0 : (γ 0 (0)|γ(0)) = 0. Ainsi (v|x) = 0. Le vecteur v est
orthogonal à x. Donc Tx (S) ⊂ {x}⊥ .
Puisque x 6= 0, l’espace {x}⊥ est un hyperplan.
• Réciproquement, soit v non nul un vecteur orthogonal à S en x. L’intersection de S et du plan Vect(x, v)
est un cercle de ce plan, support d’un arc dérivable γ tel que γ(0) = x et γ 0 (0) = v. Par conséquent v est
bien dans Tx S.
De plus, bien sûr, le vecteur nul est tangent à S en x. Donc {x}⊥ ⊂ Tx (S).
En définitive, comme annoncé Tx (S) est l’hyperplan vectoriel {x}⊥ .
L’hyperplan affine P = x + {x}⊥ passant par x et orthogonal à {x} est appelé hyperplan tangent à la sphère S
en x.
Remarque 19.44 :
Si E est euclidien, alors Ker (dg(x)) = (∇g(x))⊥ . Par conséquent un vecteur est tangent à X en x si et seulement
si il est orthogonal au gradient de g en x.
De façon appliquée, voici comment déterminer l’hyperplan H = Tm0 (X) tangent à une surface X définie par
g(x) = 0 en un point m0 . On commence par calculer ∇g(m0 ). Alors une équation de H est (∇g(m0 )) · (x − m0 ) = 0.
Dans la pratique :
Corollaire 19.45 : droite tangent à une courbe plane définie par g(x, y) = 0
Une équation de la tangente au point m0 (x0 , y0 ) à une courbe plane définie par g(x, y) = 0 est :
∂g ∂g
TM0 : (X − x0 ) (x0 , y0 ) + (Y − y0 ) (x0 , y0 ) = 0.
∂x ∂y
Exemple 19.46 :
Déterminer la tangente au point (0, 1) à la courbe C d’équation :
x3 − x2 y + 2x2 + y 2 x − y 3 + 2y 2 − 1 = 0.
Corollaire 19.47 : plan tangent à pour une surface de R3 définie par g(x, y, z) = 0
Une équation du plan tangent au point m0 (x0 , y0 , z0 ) à la surface de R3 définie par g(x, y, z) = 0 est :
∂g ∂g ∂g
(X − x0 ) (x0 , y0 , z0 ) + (Y − y0 ) (x0 , y0 , z0 ) + (Z − z0 ) (x0 , y0 , z0 ) = 0.
∂x ∂y ∂z
Exemple 19.48 :
Cherchons le plan tangent à la surface d’équation x3 + y 3 + z 3 = 1 au point m0 (x0 , y0 , z0 ).
autrement dit :
∂f ∂f
Π = Vect 1, 0, (x0 , y0 ) , 0, 1, (x0 , y0 ) .
∂x ∂y
Le plan affine P passant par m0 de direction Π est appelé plan tangent à S en m0 .
Exemple 19.50 :
Considérons la surface S d’équation z = x2 + y 2 + 1. Déterminer le plan tangent à S en un point m0 = (x0 , y0 , z0 ).
p
19.6 Optimisation
Dans cette section, toutes les fonctions sont à valeurs réelles.
3. Lorsque f présente un minimum ou un maximum local (respectivement global) en a, on dit que f présente un
extremum local (respectivement global) en a.
Remarque 19.53 :
Erreur classique ! La réciproque est fausse : dfa peut s’annuler en un point a sans que f admette un extremum
local en a.
Quand bien même chaque application partielle présenterait un extremum local (même tous de même sens), il n’en
serait pas nécessairement de même pour f .
Exemple 19.54 :
Pour f (x, y) = y(y − x2 ), on a df(x,y) (h, k) = −2xyh + (2y − x2 )k. En particulier pour tout (h, k) ∈ R2 \ {(0, 0)},
on a df(0,0) (h, k) = 0.
Remarque 19.57 :
Attention ! Bien vérifier que U est ouvert.
Exemple 19.58 : (
U = B(0, r) → R
La fonction f : présente un maximum local et même global en chaque point de la
(x, y) 7→ x2 + y 2
sphère de rayon r mais les dérivées partielles ne s’y annulent pas !
Méthode pour la recherche des points de A où f présente un extremum local
1. On se place sur un ouvert où f est de classe C 1 (éventuellement, on coupe l’ensemble considéré en frontière ∪
intérieur).
2. On cherche les points de l’ouvert où le gradient s’annule. Par définition, ces points sont appelés les points critiques.
3. Parmi les points critiques déterminés précédemment, on cherche ceux pour lesquels f présente effectivement un
extremum.
Exemple 19.59 :
Déterminer les éventuels extrema sur R2 de la fonction f : (x, y) 7→ 5x2 + 2y 2 − 2xy − 2x − 8y.
Exemple 19.61 :
Dans l’exemple précédent, à savoir optimiser f (x, y) = 5x2 + 2y 2 − 2xy − 2x − 8y, cherchons si la restriction de f
à la droite D d’équation y + x = 3 admet un extremum local. Ici la droite est dirigée par (1, −1) donc T(x,3−x) D =
Vect(1, −1) = D. Or : !
10x − 2y − 2
∇f (x, y) =
4y − 2x − 8
donc
df (x, 3 − x) (1, −1) = (4x3 − 4(2 − x) − 4(2 − x)3 − 4x = 24(x − 1)2 .
2 7
Le seul extremum local possible est au point , . Comme la fonction f admet un minimum local en ce point, il
3 3
en est de même de la restriction de f à D, c’est cohérent.
Théorème 19.62 : optimisation sous une contrainte
Remarque 19.63 :
Si E est un espace euclidien, alors sous les mêmes conditions en un point a où la restriction de f à X admet un
extremum local, les gradients de f et de g sont colinéaires :
∃λ ∈ R, ∇f (a) = λ∇g(a).
Dans la pratique, on se sert de ce théorème pour chercher les extrema locaux d’une fonction f sous une contrainte
représentée par l’annulation d’une fonction g.
Exemple 19.64 :
Pour une quantité de métal donnée, chercher le volume maximal d’une casserole.
19.7.2 Algèbre C k (U )
Définition 19.66 : fonction de classe C k
La fonction f est dite de classe C k sur U si elle admet en tout point de U toutes ses dérivées partielles d’ordre k
et qu’elles sont continues sur U .
Elle est dite de classe C ∞ sur U si elle admet en tout point de U toutes ses dérivées partielles à tout ordre.
Proposition 19.67 : structure de C k (U, F ) et de C k (U )
Soit k ∈ N ∪ {∞}. Alors :
1. L’ensemble des fonctions de classe C k de U dans F est un espace vectoriel, noté C k (U, F ).
2. Si F = R, alors l’espace vectoriel C k (U, R) possède de plus une structure d’anneau, donc de R-algèbre, notée
C k (U ).
3. La composition d’applications de classe C k est de classe C k .
Ces résultats nous aideront pour résoudre des équations aux dérivées partielles, cf. les TD.
∂2f
∀(x, y) ∈ R2 , = 0.
∂x∂y
Exemple 19.69 :
équation des cordes vibrantes –
Considérons une corde tendue et soumise à une force, par exemple une corde de guitare écartée de sa position
d’équilibre puis relâchée. On suppose la corde horizontale à l’équilibre.
Un point de la corde dont la position à l’équilibre est (x, 0) se trouve à l’instant t en (x, z(x, t)) et l’équation
∂2z 1 ∂2z
régissant la déformation de la corde s’écrit : − = 0, où c > 0 est une constante dépendant de la masse
∂x2 c2 ∂t2
linéique de la corde et de la force avec laquelle elle est tendue.
Résoudre cette équation aux dérivées partielles en cherchant toutes les applications z sous la forme d’une application
de classe C 2 de R2 dans R, à l’aide du changement de variables défini par X = x + ct, Y = x − ct.
Remarque 19.71 :
D’après le théorème de Schwarz 19.65), la matrice hessienne de f en a est symétrique.
h→0 1
f (a + h) = f (a) + (∇f (a)|h) + (Hf (a) · h|h) + o(khk2 ).
2
Attention, la réciproque n’est toujours pas vérifiée. Une condition supplémentaire doit être demandée à la matrice
Hf (a) pour cela :
Proposition 19.75 : condition suffisante d’extremum local
Soit f une fonction de classe C 2 sur un ouvert U de Rn , à valeurs réelles.
Si a est un point critique de f et si la matrice Hf (a) (resp. −Hf (a)) est définie positive, alors f admet un minimum
(resp. maximum) local strict en a.
19.8.4 Cas n = 2
!
r s
Dans le cas où n = 2, on utilise souvent la notation de Monge : Hf (a) = . Comme Hf (a) est symétrique
s t
réelle, elle possède deux valeurs propres réelles λ1 et λ2 . On sait que :
(
λ1 + λ2 = tr (Hf (a)) = r + t;
λ1 λ2 = det(Hf (a)) = rt − s2 .
La matrice Hf (a) est symétrique positive (resp. définie positive) si et seulement si λ1 et λ2 sont toutes deux positives
(resp. strictement positives), c’est-à-dire si et seulement si rt − s2 ≥ 0 (resp. > 0) et r + t ≥ 0 (resp. > 0). On en
déduit la proposition suivante :
Proposition 19.76 : extremum local d’une fonction de classe C 2 de R2 dans R
Soit f une fonction de classe C 2 sur un ouvert U de R2 , à valeurs réelles. Posons :
Si (a, b) est un point critique de f tel que rt − s2 > 0, alors f présente un extremum local strict au point (a, b). Il
s’agit d’un minimum local si r + t > 0 et d’un maximum local si r + t < 0.
Exemple 19.77 :
Les points critiques de f sont les points (x, y) tels que x2 + 2x + 2y − 4 = 0 et x2 + 2y − 2 = 0, c’est-à-dire
par
2 − x2
1 1
soustraction 2x − 2 = 0, d’où x = 1, puis y = = . La fonction f possède donc un seul point critique : 1, .
2 2 2
Déterminons la matrice hessienne de f en ce point :
∂2f
2
(x, y) = (x2 + 4x + 2y − 2)ex+y
∂x
∂2f
(x, y) = (x2 + 2x + 2y − 2)ex+y
∂x∂y
∂2f
(x, y) = (x2 + 2y)ex+y
∂y 2
1
D’où, au point 1, :
2 !
3 3
1 4e 2 2e 2
Hf 1, = 3 3 .
2 2e 2 2e 2
Remarquons que :
1 1
• det Hf 1, = 4e > 0, donc Hf 1,
3
∈ Sn++ (R) : la fonction f admet un extremum local strict en
2 2
1
1, .
2
1 3
• tr Hf 1, = 6e 2 > 0 : il s’agit donc d’un minimum local strict.
2
3 3
La valeur de ce minimum est f 1, = −2e 2 .
2
Remarque 19.78 :
1. Si rt − s2 < 0 alors f n’admet pas en (a, b) d’extremum, mais un point col (ou point selle).
2. Si rt − s2 = 0 alors on ne peut pas conclure quant à l’existence d’un extremum. Il faudrait pousser le dévelop-
pement limité plus loin !
20.1 Compacité
20.1.1 Théorème de Bolzano-Weierstrass
Théorème 20.1 : Bolzano-Weierstrass
Toute suite bornée d’un espace vectoriel normé de dimension finie possède une valeur d’adhérence.
Exemple 20.7 :
241
20.1. COMPACITÉ MP 2022-23
Remarque 20.8 :
Si E est de dimension infinie alors une partie fermée bornée n’est pas nécessairement compacte. Considérons par
Xn
exemple K[X] muni de la norme définie pour P = ak X k par kP k = max k |ak |.
k=0
• L’ensemble des monômes unitaires A = {X n ; n ∈ N} est fermé car si une suite de tels monômes converge, alors
elle est stationnaire donc sa limite est dans A.
• L’ensemble A est borné car kX n k = 1 pour tout n.
• Mais A n’est pas compact car de la suite (X n )n∈N∗ on ne peut extraire aucune suite convergente.
Remarque 20.13 :
En particulier si K est un segment de R, on retrouve un théorème vu en Première Année : toute application
continue sur un segment est bornée, et atteint ses bornes.
Plus généralement :
Corollaire 20.14 : application continue sur un compact et à valeurs vectorielles
Soit E et F deux espaces vectoriels normés. Toute application continue sur un compact de E et à valeurs dans F
est bornée, et la borne supérieure de sa norme est atteinte.
2. Une partie A de E est dite convexe lorsque pour tous points x et y de A, le segment [x, y] est inclus dans A.
Exemple 20.17 :
1. Un sous-espace vectoriel est convexe.
2. Une boule ouverte ou fermée est convexe.
3. Les parties convexes de R sont les intervalles.
4. Les bananes ne sont pas convexes.
5. L’ensemble C privé d’un ensemble A non vide n’est pas convexe.
2. Une partie A de E est dite connexe par arcs lorsqu’elle n’admet qu’une seule composante connexe par arcs. En
d’autres termes : pour tous points a et b de A, il existe un arc d’extrémités a et b inclus dans A.
Exemple 20.23 :
1. Une sphère est connexe par arcs.
2. Important : les parties de R connexes par arcs sont les intervalles.
3. L’ensemble C∗ est une partie de C connexe par arcs.
4. L’ensemble R∗ admet deux composantes connexes par arcs, à savoir R∗+ et R∗− .
C’est ce qui permet d’orienter un espace vectoriel réel, mais pas un espace vectoriel complexe.
5. Une partie étoilée par rapport à un de ses points est connexe par arcs.
6. Une partie convexe est connexe par arcs.
7. L’ensemble Z n’est pas connexe par arcs. Chacun de ses points est une composante connexe par arcs : on dit que
Z est totalement discontinu.
8. Une couronne est connexe par arcs.