Académique Documents
Professionnel Documents
Culture Documents
1
TABLE DES MATIÈRES Cours deuxiéme année MP
8 Séries dans
un espace vectoriel normé,
familles sommables
de nombres complexes. 214
8.1 Ensembles dénombrables . . . . . . . . . . . . . . . . . . . . . . . . 214
8.2 Familles sommables de nombres complexes . . . . . . . . . . . . . . 217
8.2.1 Familles sommables de nombres réels positifs . . . . . . . . . 217
8.2.2 Familles sommables de nombres complexes . . . . . . . . . . 219
8.2.3 Propriétés de la somme . . . . . . . . . . . . . . . . . . . . . 220
8.2.4 Suites doubles . . . . . . . . . . . . . . . . . . . . . . . . . . 222
8.2.5 Série produit de Cauchy . . . . . . . . . . . . . . . . . . . . . 223
8.3 Séries dans un espace vectoriel normé de dimension finie . . . . . . . 224
8.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
8.3.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
8.3.3 Série absolument convergente . . . . . . . . . . . . . . . . . . 227
8.4 Séries dans une algèbre normée de dimension finie . . . . . . . . . . 227
8.4.1 algèbre normée de dimension finie . . . . . . . . . . . . . . . 227
12 Probabilités 264
12.1 Rappels et compléments . . . . . . . . . . . . . . . . . . . . . . . . . 264
12.1.1 Espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . 264
12.1.2 Indépendance, Probabilité conditionnelle . . . . . . . . . . . . 272
12.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
12.2.1 Définitions, premières propriétés . . . . . . . . . . . . . . . . 277
12.2.2 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . 279
12.2.3 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . 280
12.2.4 Indépendance des v.a.r, conditionnement . . . . . . . . . . . 282
12.2.5 Variables aléatoires réelles discrètes . . . . . . . . . . . . . . 283
12.2.6 Variables aléatoires continues à densité . . . . . . . . . . . . . 286
12.2.7 Somme de deux variables aléatoires indépendantes . . . . . . 291
12.2.8 Moments, espérance, variance, écart type d’une v.a.r. . . . . . 293
12.3 Fonction génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
12.3.1 Définition, propriétés . . . . . . . . . . . . . . . . . . . . . . 303
12.3.2 Fonction génératrice d’une somme de v.a.r. indépendantes . . 308
12.4 Inégalités, Convergence . . . . . . . . . . . . . . . . . . . . . . . . . 308
12.4.1 Inégalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
12.4.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
12.4.3 Lois faible des grands nombres et théorème limite central . . . 314
12.5 Annexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
12.5.1 Tableau récapitulatif des variables aléatoires réelles discrètes
usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
12.5.2 Tableau récapitulatif des variables aléatoires réelles continues
à densité usuelles : . . . . . . . . . . . . . . . . . . . . . . . . 317
12.5.3 Stabilité de certaines lois . . . . . . . . . . . . . . . . . . . . 318
2.1 Groupes
On donnera des rappels sur les groupes et quelques compléments, notamment les
groupes finis, groupes monogènes (les groupes cycliques en particulier).
2.1.1.1 Définitions
Définition 1. Un groupe est un couple (G, ?) tel que G est un ensemble non vide
et ? une loi de composition interne sur G tel que :
1. ? est associative.
2. ? admet un élément neutre (celui-ci est alors unique noté e).
3. Tout élément de G est symétrisable ( Il y’a alors unicité du symétrique d’un
élément x de G, on le note x0 ).
Formellement, (G, ?) est un groupe si :
1. ∀(a, b, c) ∈ G3 , (a ? b) ? c = a ? (b ? c).
2. ∃e ∈ G, ∀x ∈ G, x ? e = e ? x = x.
3. ∀x ∈ G, ∃x0 ∈ G, x ? x0 = x0 ? x = e.
9
2.1. GROUPES Cours deuxiéme année MP
2.1.1.2 Exemples
Voici des exemples de groupes : Ce sont les groupe les plus utilisés et les plus connus.
On peut trouver d’autres exemples intéressants.
1. (C, +), (R, +), (Q, +), (Z, +) sont des groupes commutatifs.
2. (C∗ , ×), (R∗ , ×), (Q∗ , ×) Sont aussi des groupes commutatifs.
3. Si E est un ensemble non vide, on note SE l’ensemble des bijections de E vers
E. Muni de la composition des applications, SE est un groupe non commutatif
en général appelé groupe des permutations de E. Si E = [[1, n]] avec n ∈ N∗ ,
on adopte la notation Sn et on l’appelle groupe symétrique.
4. K désigne R ou C. Soit n ∈ N∗ , on dispose de GLn (K) l’ensemble des matrices
carrées de taille n inversibles à coefficients dans K. Muni de la multiplication
usuelle des matrices carrées, c’est un groupe non commutatif (sauf si n = 1),
appelé groupe linéaire.
2.1.2 Sous-groupes
2.1.2.1 Définitions
a) Lois induite :
Soit (G, ?) un groupe et H une partie non vide de G tel que :
∀(x, y) ∈ G2 (x, y) ∈ H 2 ⇒ x ? y ∈ H
On dit que H est stable et on remarque qu’on dispose d’une loi de composition
interne ∗ sur H tel que :
∀(x, y) ∈ H 2 x ∗ y = x ? y
Dans la pratique, on adopte la même notation pour les deux lois.
b) Sous-groupe :
2. H
est un sous-groupe de (G, ?) si et seulement si :
H 6= ∅
∀(x, y) ∈ H 2 , x ? y 0 ∈ H
2.1.2.2 Exemples
2. Pour tout groupe (G, ?), {e} et G sont des sous-groupes de (G, ?).
3. Z est un sous-groupe du groupe additif R.
4. {−1, 1} est un sous-groupe du groupe multiplicatif Q∗ .
Un , alors G est un sous-groupe de (C∗ , ×)
S
5. Soit G =
n∈N∗
6. Exercice : Montrer que les seuls sous-groupes de (Z, +) sont les nZ avec n ∈ N :
Rep : Soit n ∈ N, il est aisé de prouver que nZ est un sous-groupe de Z.
Réciproquement, si H est un sous-groupe de Z deux cas sont possibles :
- Soit H ∩ N∗ = ∅, dans ce cas on a H ∩ Z∗ = ∅ car si k ∈ Z, on a k ∈ H ⇒
|k| ∈ H. Donc H = {0} = 0Z.
- Soit H ∩ N∗ 6= ∅, soit alors n = min(H ∩ N∗ ) alors n ∈ H donc nZ ⊂ H. Soit
x ∈ H et x = qn + r la division euclidienne de x par n alors r = x − nq ∈ H ∩ N
donc r = 0 car sinon on aurait r ≥ n, donc H = nZ.
Remarque Deux groupes isomorphes ont les mêmes propriétés relevant de la struc-
ture de groupe.
Exemple Il y’a aux moins deux groupes de cardinal 4, non isomorphes à savoir
Z/4Z et (Z/2Z)2 . En effet, pour tout x ∈ (Z/2Z)2 , on a 2x = (0, 0), ce qui n’est
pas le cas dans Z/4Z puisque par exemple : 2.3 = 2 6= 0.
On peut, en fait prouver qu’à isomorphisme près, il y a exactement deux groupes de
cardinal 4, à savoir Z/4Z et (Z/2Z)2 .
1. det : GLn (K) → K∗ est un morphisme surjectif et non injectif, son noyau
est l’ensemble des matrices inversibles de déterminant 1, appelé groupe linéaire
spécial et noté SLn (K).
2. La signature ε : Sn → R∗ est un morphisme de groupe qui n’est ni surjectif ni
injectif. On a ker(ε) = An appelé groupe symétrique alterné.
3. Soit (G, ?) un groupe quelconque. Pour tout x ∈ G, on note tx et τx les appli-
cations de G vers G définies par :
tx (g) = g ? x
∀g ∈ G,
τx (g) = x ? g
Les applications tx et τx sont bijectives de G vers G, pour tout x ∈ G, ce qui
permet de définir les applications :
t : G → S (G); x 7→ tx
et
τ : G → S (G); x 7→ τx
Alors τ est un morphisme de groupe de (G, ?) vers (S (G), ◦). Cependant, ce
n’est pas le cas pour t. Toutefois, on peut dire que t est un morphisme de (G, ⊥)
vers (S (G), ◦) où l’on a définit ⊥ par :
∀(x, y) ∈ G2 , x⊥y = y ? x.
Notons que les applications τ et t sont injectives, ce qui permet de dire que
tout groupe G est isomorphe à un sous-groupe du groupe symétrique S (G) des
bijections de G vers G. Plus précisément, on a :
(G, ?) ' (τ (G), ◦).
Proposition
T 7. Soit G un groupe. Si (Hi )i∈I est une famille de sous-groupes alors
H= Hi est un sous groupe de G.
i∈I
GA = {H/A ⊂ H et H sous-groupe de G}
Alors hAi est le plus petit sous-groupe de G contenant A. Il est appelé le sous-groupe
de G engendré par A. On a : Si A = ∅ alors hAi = {e} et si A 6= ∅ alors :
(m )
Y
hAi = xk /m ∈ N∗ , xk ∈ A ∪ A−1 , ∀k ∈ [[1, m]]
k=1
T
Preuve Posons K = H. D’après le proposition 7, hAi est un sous-groupe
H∈GA
de G. Comme hAi est une intersection de groupes contenant A, on a A ⊂ hAi.
Ainsi on a hAi ∈ GA et hAi ⊂ H pour tout H ∈ GA . Donc hAi est le plus petit
sous-groupe de G contenant A.
• Posons (m )
Y
K= xk /m ∈ N∗ , xk ∈ A ∪ A−1 , ∀k ∈ [[1, m]]
k=1
Remarques Dans le cas oùA 6= ∅,on peut faire les remarques suivantes :
1. En notation additive on note
(−A) = {−a/a ∈ A}
et on a alors :
( m )
X
hAi = xk /m ∈ N∗ , xk ∈ A ∪ (−A), ∀k = 1, ..., m
k=1
3. Si G = hAi, on dit que G est le groupe engendré par A et que A est une partie
génératrice de G. On a toujours : G = hGi, mais il est plus intéressant de
trouver des parties génératrices A de G minimales au sens de l’inclusion.
2.1.4.3 Exemples
2. Le groupe orthogonal O2 (R) est engendré par les matrices de symétries ortho-
gonales, à savoir les matrices de la forme :
cos θ sin θ
Sθ = , avec θ ∈ R.
sin θ − cos θ
Proposition 9. (G, >) est un groupe. De plus si les Gi sont commutatifs G est
commutatif. Si pour tout i ∈ [[1, m]], l’élément neutre de Gi est ei alors e = (ei )1≤i≤m
est l’élément neutre de G.Si x = (xi ) ∈ G alors le symétrique de x est x0 = (x0i ) où
x0i est le symétrique de xi dans Gi , pour tout i ∈ [[1, m]].
Remarque Un cas usuel est quand les Gi sont égaux et ont même loi : G1 = · · · =
Gm = H alors G = H m . Comme exemples : Zm , Rm , Qm , Cm , (Z/nZ)m .
2.1.6.1 Définitions
Définition 6. Soit x ∈ G. On dit que x est d’ordre fini s’il existe d ∈ N∗ tel que
xd = e. Si c’est le cas, le plus petit d ∈ N∗ tel que xd = e s’appelle l’ordre de x.
Remarques 1) Avec une notation additive x est d’ordre fini s’il existe d ∈ N∗ tel
que dx = 0.
2) l’élément neutre de G est d’ordre 1.
Exemples 1. Dans Z/nZ tout élément est d’ordre fini puisque ∀x ∈ Z/nZ, nx =
0.
2. Aucun élément non nul de Z n’est d’ordre fini.
2π
3. Dans C∗ , pour tout n∈ N∗ , le nombre complexe ωn = ei n est d’ordre n
4. Soit G = ∪ ∗ Un . On peut démontrer que G est un sous-groupe de C∗ . On a G
n∈N
est infini mais tout élément est d’ordre fini.
2.1.6.2 Propriétés
k 6= ` ⇒ xk 6= x`
Ce théorème est admis, et voici une preuve dans le cas où G est commutatif :
donc an = e.
Proposition 15. Si G = hai est un groupe monogène alors soit G est infini auquel
cas G est isomorphe à Z et les générateurs de G sont a et a−1 , soit G est fini auquel
cas G est isomorphe à Z/nZ où n = card(G) et les générateurs de G sont ak avec
k ∈ [[1, n]] et k ∧ n = 1.
ψ : Z/nZ → G; k 7→ ak .
Tout d’abord, ψ est bien définie car si k ≡ `[n] alors il existe q ∈ Z tel que
` = k + qn donc a` = ak (an )q = ak donc ak ne dépends pas du représentant de la
classe k.
Ensuite ψ est surjectif par construction et finalement injectif car si k ∈ ker ψ alors
ak = e donc n|k donc k = 0. Ainsi G est un groupe cyclique isomorphe à Z/nZ.
Si b est un générateur de G alors comme b ∈ G, on a b = ak avec k ∈ {1, · · · , n}.
Si x ∈ Z/nZ alors ψ(x) ∈ G donc il existe ` ∈ Z tel que ψ(x) = b` = a`k donc
x = ψ −1 (x) = `k = `k, ce qui prouve que k est un générateur de Z/nZ, donc par
la proposition 13 il vient que k ∧ n = 1. Ainsi les générateurs de G = hai sont les
ak avec k ∈ [[1, n]] et k ∧ n = 1.
Preuve Un tel groupe est isomorphe soit à Z soit à un certain Z/nZ, lesquels sont
commutatifs.
2.1.8 Exercices
Exercice 1 : Soit G un groupe monogène. Démontrer que si G est monogène infini,
tout sous-groupe de G est monogène infini et si G est cyclique tout sous-groupe de
G est cyclique.
Exercice 2 : Démontrer que tout groupe de cardinal un nombre premier est cyclique.
Exercice 3 : Montrer que si a, b ∈ G tel que ab = ba et a et b d’ordres respectifs m
et n et m ∧ n = 1 alors ab est d’ordre mn.
Proposition 16. A× est stable par × et (A× , ×) est un groupe appelé groupe des
inversibles de l’anneau A.
Alors (A, +, ×) est un anneau. De plus, le groupe des inversibles de A est donné
par :
Ym
U (A) = U (Ak ).
k=1
Définition 9. A et A0 0
Une application f : A → A est un
sont deux anneaux.
f (x + y) = f (x) + f (y)
∀(x, y) ∈ A2 ,
morphisme d’anneau si : f (x × y) = f (x) × f (y)
f (1A ) = 1A0
2.2.2 Corps
Remarque Un corps est un anneau intègre (K, +, ×) (en particulier K∗ est stable
par ×), tel que (K ∗ , ×) est un groupe commutatif.
Remarque On a I ∩ J ⊂ I ⊂ I + J.
n
T m
P
Généralement pour tout k ∈ [[1, m]], on a : Ij ⊂ Ik ⊂ Ij .
j=1 j=1
Définition 14. Soit (a, b) ∈ A2 . On dit que a divise b s’il existe c ∈ A tel que
b = ca. On dit aussi b est un multiple de a ou a est un diviseur de b.
Notation : On note δ = a ∧ b et µ = a ∨ b
Remarques On note les remarques suivantes :
1. On peut généraliser pour plusieurs éléments non nuls a1 , · · · , am de A. On a :
m
X
(a1 ∧ · · · ∧ am )A = ak A
k=1
et m
\
(a1 ∨ · · · ∨ am )A = ak A
k=1
∗
2. Si a, b ∈ Z alors :
a|b ⇔ a ∧ b = |a| ⇔ a ∨ b = |b|.
3. Pour tout polynôme non nul P , on note :
Pe = (cd(P ))−1 P.
Si P, Q ∈ K[X]\{0}, alors
P |Q ⇔ P ∧ Q = Pe ⇔ P ∨ Q = Q.
e
δ = a ∧ b ⇔ Da ∩ Db = Dδ
2. Soient P, Q, ∆ ∈ K[X] tel que ∆ est unitaire et P et Q non tous nuls, alors :
∆ = P ∧ Q ⇔ DP ∩ DQ = D∆
Proposition 27. Soit (a, b) ∈ Z2 tel que ab 6= 0, alors a ∧ b est le dernier reste
non nul dans les divisions euclidiennes successives de a par b.
Proposition 28. Soit (P, Q) ∈ K[X]2 tel que P Q 6= 0, alors P ∧ Q est le dernier
reste non nul, normalisé dans les divisions euclidiennes successives de A par Q.
a ∧ b = 1 ⇔ ∃(u, v) ∈ A2 , ua + vb = 1
3 a|bc
Proposition 30. Soit (a, b, c) ∈ A . On a : ⇒ a|c
a∧b=1
2.2.4.6 Irréductibles de A
Preuve Si p est premier alors p n’est pas inversible car p 6= 1 et p 6= −1, par
ailleurs les diviseurs de p sont les éléments de {1, −1, p, −p} = U Z ∪ pU Z.
Réciproquement si p est un entier non inversible dont les seuls diviseurs sont
−1, 1, p et −p alors par définition, p est premier.
Théorème 2. Pour tout nombre entier relatif x non inversible et non nul il existe
un unique s ∈ N∗ , un unique ε ∈ {−1, 1}, un unique (α1 , · · · , αs ) ∈ (N∗ )s et un
unique (p1 , · · · , ps ) ∈ Ps tel que :
p1 < · · · < ps
s
pαk k
Q
x=ε
k=1
Théorème 3. Pour tout polynôme non nul et non inversible Q ∈ K[X], il existe
un unique ε ∈ K∗ , un unique s ∈ N∗ , un unique (α1 , · · · , αs ) ∈ (N∗ )s , et, à une
permutation près, un unique (P1 , · · · , Ps ) ∈ K[X]s tel que :
∀k ∈ [[1, s]], Pk est unitaire irréductible
s
Pkαk
Q
Q=ε
k=1
Ainsi le groupe des inversibles de l’anneau Z/nZ coincide avec l’ensemble des géné-
rateurs du groupe additif Z/nZ.
Preuve Si k ∈ Z tel que k est inversible, alors il existe k 0 ∈ Z tel que kk 0 = 1, donc
kk 0 ≡ 1 modulo n donc il existe k 00 ∈ Z tel que kk 0 − 1 = k 00 n donc uk + vk = 1
avec (u, v) = (k, −k 0 )
k ∧ n = 1 ⇒ k ϕ(n) ≡ 1 [n]
Théorème 4. Si m et n sont des entiers naturels non nuls premiers entre eux alors
les anneaux Z/mnZ et Z/mZ × Z/nZ sont isomorphes.
f (b
x+b
y ) = f (x[
+ y) = (x + y, x]
+ y) = (x+y, x̃+ỹ) = (x, x̃)+(y, ỹ) = f (b
x)+f (b
y)
• Pour tout x, y ∈ Z, on a :
x×b
f (b × y) = (x × y, x]
y ) = f (x[ × y) = (x×y, x̃×ỹ) = (x, x̃)×(y, ỹ) = f (b
x)×f (b
y)
ϕ(pα ) = pα − pα−1 .
s
pαk k avec s ∈ N∗ , α1 , · · · , αs ∈ N∗ et p1 , · · · , ps des
Q
5. Si n ∈ N tel que n =
k=1
nombres entiers naturels premiers deux à deux distincts alors :
s
Y 1
ϕ(n) = n 1−
pk
k=1
1. Si on ajoute :
(4) × est commutative,
on parle d’algèbre commutative.
2. Notons que si (A , +, ×, .) est une algèbre alors × admet un élément neutre 1A .
3. Si (A , +, ×, .) est une K−algèbre alors pour tous x, y ∈ A et tous α, β ∈ K,
on a
Exemples :
1. Si (K, +, ×) est un corps alors (K, +, ×, .) est une K−algèbre.
2. Si X est un ensemble non vide et A est une K−algèbre alors (A X , +, ×, .)
est une K−algèbre, avec f + g(x) = f (x) + g(x) ; f × g(x) = f (x) × g(x) et
(α.f )(x) = α.f (x), pour tout x, y ∈ X et α ∈ K.
3. (K[X], +, ×, .) est une K−algèbre commutative.
4. (L(E), +, ◦, .) et (Mn (K), +, ×, .) sont des K−algèbres.
2.4.2 Sous-algèbre
Remarque Si A 0 est une sous-algèbre de A alors A 0 est stables par toutes les lois
de A et (A 0 , +, ×, .) est une K−algèbre.
Exemples Dans tout ce qui suit K désigne R ou C et n est un entier naturel non
nul.
1. Tn+ (K) et Tn− (K) ensembles des matrices triangulaires supérieures et inférieures
respectivement sont des sous-algèbres de Mn (K). Leur intersection Dn (K), l’en-
semble des matrices diagonales est aussi une sous-algèbre de Mn (K).
m
ak X k on
P
2. Soit A une matrice fixée de Mn (K) et pour tout polynôme P =
k=0
m
ak Ak . On verra loin en algèbre linéaire que si A ∈ Mn (K)
P
pose P (A) =
k=0
alors K[A] = {P (A)/P ∈ K[X]} est une sous-algèbre commutative de Mn (K),
appelée l’algèbre des polynômes en A.
3. Plus généralement si A est une K−algèbre et θ ∈ A, alors K[θ] = {P (θ)/P ∈
K[X]} est une sous-algèbre commutative de A.
Soit K un corps. Si A = (αi )i∈I est une famille d’éléments de K, on appelle support
de A l’ensemble :
Supp(A ) = {i ∈ I/αi 6= 0}
Si Supp(A ) est une partie finie de I, on dit que la famille A est à support fini.
On note K[I] l’ensemble des familles d’éléments de K à support fini de K. On observe
que K[I] ⊂ KI .
Si E est un K−espace vectoriel et A = (αi )i∈I est une famille à support fini non
P vide
I = Supp(A ) alors pour toute famille (xi )i∈I de vecteurs de E, la somme αi x i
i∈I
est pourvu de sens , par définition :
X X
αi x i = αi x i .
i∈I i∈I
P
Par convention, si Supp(A ) = ∅ alors αi xi = 0.
i∈I
41
3.1. RAPPELS ET COMPLÉMENTS Cours deuxiéme année MP
4. Si on indexe par N, on dispose , une famille (vi )i∈N est libre si et seulement si
pour tout m ∈ N, la famille (vi )0≤i≤m est libre.
3.1.1.2 Exemples
Exemple 1 :
Soit E = C (R, R) l’espace des applications continues de R vers R et pour tout
n ∈ N, on pose fn (x) = cos(nx) pour tout x ∈ R. La famille (fn )n∈N est libre. En
de sorte que l’on a λj = 0. Ceci étant pour tout j ∈ [[0, N ]] donc la famille (fk )k∈[[0,N ]]
est libre, comme c’est vrai pour tout N ∈ N, la famille (fn )n∈N est libre.
Exemple 2 :
Soit E = C (R, R) l’espace des applications continues de R vers R et pour tout
n ∈ N, on pose gn (x) = cosn x pour tout x ∈ R. La famille (gn )n∈N est libre. En
N
P
effet si N ∈ N et λ0 , · · · , λN ∈ R tel que λk gk = 0 alors si j ∈ [[0, N ]] fixé, on
k=0
N
λk tk = 0 (il suffit de considérer x = arccos(t)), donc
P
a pour tout t ∈ [−1, 1],
k=0
N
λk X k admet une infinité de zéros, à savoir, tout élément de
P
le polynôme P =
k=0
[−1, 1], donc P = 0 donc ses coefficients sont nuls, donc λ0 = · · · = λN = 0, ce
qui termine comme dans l’exemple précédent la preuve de la liberté de la famille
(gn )n∈N .
3.1.1.3 Sous espace vectoriel engendré par une famille ou une partie
est un sous-espace vectoriel de E appelé sous-espace engendré par la famille (ei )i∈I
Proposition 40. Si E = (Pn )n∈N est une famille de polynômes tel que deg(Pn ) = n
pour tout n ∈ N alors E est une base de K[X]
Preuve Pour tout n ∈ N, la famille En = (Pk )0≤k≤n est une famille libre car
n
P
s’il existe (αk )0≤k≤n famille de scalaires non tous nuls tel que αk Pk = 0, alors
k=0
en nommant ` le plus grand indice appartenant à [[0, n]] tel que α` 6= 0, on a
nécessairement ` > 0 et
`−1
X
α ` P` = − αk Pk ,
k=0
chose impossible car égalité entre un polynôme de degré ` et un autre de degré
strictement inférieur à `. Ceci démontre la liberté de E . Si Q est un polynôme non
Corollaire 6. Si I est une partie non vide de N et (Pi )i∈I est une famille de
polynômes de K[X] tel que pour tout i, j ∈ I on a i 6= j ⇒ deg(Pi ) 6= deg(Pj )
alors la famille (Pi )i∈I est libre.
m
P
Soit E1 , · · · , Em , F des sous-espaces vectoriels de E et F = Ek . Si :
k=1
m
X
∀x ∈ F, ∃!(x1 , · · · , xm ) ∈ E1 × · · · × Em , x= xk
k=1
m
Q
ce qui revient à dire que l’application Φ ci-dessus induit un isomorphisme de Ek
k=1
m
P
vers F , on dit que la somme F = Ek est directe. On note
k=1
m
M
F = Ek .
k=1
m
cj = P Ek .
Pour tout j ∈ [[1, m]], on pose : E
k=1
k6=j
Proposition 42. On a :
m
X
πk = IdE .
k=1
En particulier, pour toute endomorphisme f de E, on a :
m
X m
X
f= f ◦ πk = πk ◦ f
k=1 k=1
∀X ∈ Kp , fM (X) = M X
C’est l’application linéaire dont M est la matrice relativement aux bases canoniques
respectives de Kp et Kn .
Remarques 1. Si on désire éviter l’identification des colonnes et des lignes de
même taille une définition rigoureuse de fM est pour x ∈ Kp ,
fM (x) = t(M tx) = xtM
2. Une autre façon de faire est de prendre :
fM : Mp,1 (K) → Mn,1 (K), X 7→ fM (X) = M X.
3. Dans le cas particulier n = p, la matrice M et une matrice carrée , M ∈ Mn (K)
et fM est un endomorphisme appelé l’endomorphisme canoniquement associé à
M.
A = (ai,j )1≤i≤n
1≤j≤p
avec : n
X
∀j ∈ [[1, p]] vj = ai,j ei
i=1
P = matB (B 0 )
P = matB0 ,B IdE
B 0
Notation : On note PB la matrice de passage de B à B 0 .
B B 0 −1
3. PB PB
0 = .
Proposition 47. Si deux matrices sont semblables elles ont même rang, même
déterminant et même trace.
Attention ! Deux matrices peuvent avoir même rang, même déterminant, même
trace sans qu’elles soient semblables
Contre-exemple : Prenons :
1 0 0 0 0 0
A= 0 0 0
et B = 1
0 0
1 1 −1 1 1 0
3.1.6 Rang
3.1.6.1 Définitions
Remarque Soit f ∈ L(E, F ), alors le rang de f existe dans chacun des cas suivants :
1. Si E est de dimension finie et F quelconque.
2. Si E est quelconque et F de dimension finie.
Preuve
• Si F de dimension finie alors Im(f ) est un sous-espace vectoriel de F , donc Im(f )
est de dimension finie, par suite le rang de f existe.
• Si E est de dimension finie alors si U est une famille génératrice finie de E alors
Vect(f (U )) est une famille génératrice de Im(f ). Or d’après la proposition 48, on
a rg (f (U )) existe et rg (f (U )) ≤ rg (U ), ce qui finit la preuve de la remarque.
Proposition 51. Si A ∈ Mn,p (K) ; alors pour tout (P, Q) ∈ GLn (K) × GLp (K),
on a :
rg (A) = rg (P AQ) = rg (P A) = rg (AQ).
Corollaire 8. Soit A ∈ Mn,p (K). Le rang de A ne change pas par l’une des
opérations suivantes :
1. Li ← Li + αLj , i 6= j où i, j ∈ [[1, n]] avec i 6= j et α ∈ K.
2. Li ← αLi où i ∈ [[1, n]] et α ∈ K et α 6= 0.
3. Li ↔ Lj où i, j ∈ [[1, n]] avec i 6= j
La même conclusion est valables avec le opérations sur les colonnes.
x ∈ E0
Preuve Si x ∈ E 0 tel que f 0 (x) = 0 alors par suite x ∈ E 0 ∩ ker(f )
f (x) = 0
d’où x = 0. Ainsi f 0 est injective.
00
Soit y ∈ Im(f ) donc il existe x ∈ E tel que f (x) = y. Écrivons x = x0 + x avec
00
x0 ∈ E 0 et x ∈ ker(f ) alors f (x) = f (x0 ), et comme x0 ∈ E 0 , on y = f (x0 ) =
f 0 (x0 ), donc f est surjective.
Remarque I
3.1.7 Déterminant
3.1.7.1 Définition, propriétés
alors n n
X Y X Y
det(U ) = ε(σ) ui,σ(i) = ε(σ) uσ(j),j
E
σ∈Sn i=1 σ∈Sn j=1
Preuve Puisque les formes n−linéaires alternées forment une droite vecto-
rielle, et que detB est non nulle, il existe λ ∈ K tel que : detB0 = λ detB . En
appliquant B et compte tenu de detB (B) = 1, il vient λ = detB0 (B), donc,
pour toute famille F de vecteurs de E, on a : detB0 (F ) = detB0 (B) detB (F ),
ce qui termine la preuve.
n
3. Soit F = (x1 , · · · , xn ) ∈ E , k ∈ [[1, n]],
n
x0k
P
= xk + λj xj (où les λj j ∈
j=1
j6=k
[[1, n]]\{k} sont des scalaires) et F 0 = (y1 , · · · , yn ) avec
xj si j 6= k
∀j ∈ [[1, n]], yj =
x0k si j = k
alors detB (F ) = detB (F 0 ).
On exprime ça en disant que : Le déterminant d’une famille de vecteur ne change
pas si on remplace un vecteur par lui même ajouté à une combinaison linéaire
des autres.
4. Si on permute deux vecteurs d’une famille, le déterminant est multiplié par −1.
Généralement si σ ∈ Sn et F = (x1 , · · · , xn ) ∈ E n alors :
det(xσ(1) , · · · , xσ(n) ) = ε(σ) det(x1 , · · · , xn )
B B
où ε(σ) est la signature de σ.
5. Si on multiplie un vecteur par un scalaire, le déterminant de la famille obtenue
est multiplié par ce scalaire.
M N
Proposition 55. Si A = est une matrice triangulaire par blocs où
0 R
M ∈ Md (K) et R ∈ Mq (K) avec d, q ∈ N∗ . alors :
Preuve On écrit :
M N Id 0 M N
A= = ×
0 R 0 R 0 Iq
et on se ramène à un cas simple qui se traite par récurrence.
A1
Proposition 56. Soit A = ... une matrice triangulaire supérieure
As
s
Q
de s blocs alors det(A) = det(Ak ).
k=1
on définit : m
X
P (u) = ak uk = am um + · · · + a1 u + a0 IdE .
k=0
Soit Θu l’application :
Θu : K[X] → L(E)
tel que
∀P ∈ K[X], Θu (P ) = P (u)
m
• Commençons par le cas simple Q = X j , alors P Q = ak X k+j , par suite
P
m k=0
m m
ak uk+j = ak uk ◦uj = ak uk ◦uj = P (u)◦Q(u) =
P P P
Θu (P Q) = P Q(u) =
k=0 k=0 k=0
Θu (P ) ◦ Θu (Q).
q
bj P X j , donc
P
Pour le cas général : Θ(P Q) =
j=0
Θu (P Q) = P Q(u)
Xq
= bj P (u) ◦ uj
j=0
q
X
= P (u) ◦ bj uj
j=0
= P (u) ◦ Q(u)
= Θu (P ) ◦ Θu (Q)
Le corollaire ci-dessus est trés important en pratique, par exemple si on sait que
P (u)(x) = 0, pour un certain vecteur x de E et on part de l’expression P (u)(Q(u)(x)),
en utilisant le résultat du corollaire on aurait : P (u)(Q(u)(x)) = Q(u)(P (u)(x)) =
Q(u)(0) = 0
3.2.1.1 Exemples
Proposition 58. Si E est de dimension finie alors le polynôme minimal existe pour
tout endomorphisme de E
3.2.1.3 Contre-exemple
m
ak X k =
P
Preuve En effet si µD existe alors m = deg(µD ) ≥ 1. Posons µD =
k=s
am X + · · · as X tel que as 6= 0 et am = 1 ; donc µD (D) = D + · · · + as Ds .
m s m
Exemple Soit A une matrice carrée de Mn (K), n ≥ 2, tel que rg (A) = 1, alors
µA = X 2 − tr(A)X
Kn = ker(u) ⊕ Kvn
d−1 d−1
αk uk = 0 le polynôme Q = αk X k est un
P P
Preuve La famille est libre car si
k=0 k=0
polynôme annulateur de u et si Q est non nulle cela contredirait la définition du
polynôme minimal, donc Q = 0 et les αk sont nuls. La famille est génératrice car si
P ∈ K[X] et R le reste de la division euclidienne de P par µu alors P (u) = R(u)
or R ∈ Kd−1 [X], ce qui établit le résultat.
3.3 Stabilité
3.3.1 Définitions et premières propriétés
Exemples :
Preuve Soit x ∈ ker u alors u(v(x) = v(u(x)) = v(0) = 0, donc v(x) ∈ ker u. Soit
x ∈ Im u alors ∃y ∈ E tel que x = u(y) donc v(x) = v(u(y)) = u(v(y)) ∈ Im u
s
Proposition 65. Si E = ⊕ Fk et si u est un endomorphisme de E tel que Fk est
k=1
s
stable par u pour tout k ∈ [[1, s]] alors la matrice de u dans une base B = ∪ Bk
k=1
A1 0
adaptée à la somme directe ci-dessus est de la forme A = ... , c’est-à-
0 As
dire diagonale par blocs, où les Ak sont les matrices respectives des endomorphismes
induits uk relativement à Bk
Remarque réciproquement s’il existe une base de la forme ci-dessus tel que la ma-
trice de u dans cette base est diagonale par blocs alors les sous espaces Fk = Vect(Bk )
s
sont u−stables et ⊕ Fk = E.
k=1
Preuve Si P est un polynôme comme F est stable par u on aussi F est stable par
P (u) car uk (F ) ⊂ F pour tout k ∈ N et par suite ak uk (F ) ⊂ F.. Si de plus
P
s
M
ker(P (u)) = ker(Pk (u)).
k=1
donc x = 0. Ainsi on a :
alors Q ∧ Ps+1 = 1 car si R est un polynôme irréductible qui divise Q et Rs+1 alors
R divise un des Pk pour 1 ≤ k ≤ s et Ps+1 , ce qui contredit le fait que Pk et Ps+1
sont premiers entre eux. D’après le résultat pour s = 2, on a :
Donc :
s+1
M
ker(P (u)) = ker(Pk (u))
k=1
3.4.3.2 Exemple 2 :
Définition 36. si λ est une valeur propre de u , Eλ (u) s’appelle sous-espace propre
3.5.1.2 Matrices
Preuve Comme les λk sont deux à deux distincts les polynômes X − λk sont
deux à deux premiers entre eux et le lemme des noyaux permet d’écrire en posant
Qs
Q= (X − λk ) :
k=1
s
ker(Q(u)) = ⊕ ker(u − λk IdE ),
k=1
ce qui termine la preuve de la proposition.
Corollaire 10. une famille de vecteurs propres associée à des valeurs propres 2 à 2
distinctes est libre.
Preuve Soient λ1 , . . . , λs des valeurs propres deux à deux distinctes d’un en-
domorphisme u et x1 , . . . , xs des vecteurs propres respectifs associés. Pour tout
s
P
α1 , . . . , αs ∈ K, si αk xk = 0, comme αk xk ∈ Eλk (u), pour tout k ∈ [[1, s]]
k=1
et que la somme de Eλk (u) est directe, en vertu de la proposition 70, on a
∀k ∈ [[1, s]], αk xk = 0, et comme xk 6= 0, on a αk = 0, d’où la liberté de la
famille (xk )1≤k≤s .
Proposition 71. si λ ∈ Sp(u) alors P (λ) ∈ Sp(P (u)). si x est un vecteurs propre
de u associé à λ, alors x est vp de P (u) associé à P (λ).
−aij si i 6= j
Preuve Soit x ∈ K et si on pose A = (aij ), posons ac
ij = ;
x − aii si i = j
alors n
X Y
f (x) = Dσ avec ∀σ ∈ Sn , Dσ = ε(σ) a[
iσ(i)
σ∈Sn i=1
On voit facilement que Dσ est polynômiale en x , on confondra désormais polynôme
et fonction polynômiale associée.
On suppose à présent que n ≥ 2 (le cas n = 1 étant très facile à vérifier) ; soit
σ ∈ Sn tel que σ 6= Id ; posons
Y = {i ∈ [[1, n]]/σ(i) 6= i}
alors card(Y ) ≥ 2 ; en effet Y 6= ∅ car σ 6= Id, et si i ∈ Y , posons j = σ(i) alors
i 6= j et par injectivité de σ, on a σ(i) 6= σ(j) donc j 6= σ(j) donc j ∈ Y . Il en
découle que deg(Dσ ) ≤ n − 2 Pour tout σ ∈ Sn tel que σ 6= Id. Sauf DId , tous
les monômes Dσ sont de degré plus petit ou égal à n − 2. Comme par ailleurs,
deg(DId ) = n, les monômes de f (x) de degré n et celui de degré n − 1 se trouvent
dans DId . Comme
Yn Xn
n
DId (X) = (X − aii ) = X − ( aii )X n−1 + ...
i=1 i=1
on a
χA (X) = X n − tr(A)X n−1 + · · · + (−1)n det(A)
Remarque Cette définition est pourvue de sens car si deux matrices A et B repré-
sentes u dans des bases respectives, les matrices A et B sont semblables, donc d’après
la proposition 73, on a χA = χB , donc le polynôme caractéristique en question ne
dépends que de u.
Corollaire 12. Soit u ∈ L (E). Alors Sp(u) est fini et card(Sp(u)) ≤ dim(E).
avec les λk , k ∈ [[1, n]] les valeurs propres de u comptées avec leur multiplicités et les
µj , j ∈ [[1, s]] les valeurs propres deux à deux distinctes de u ; alors :
Remarque C’est aussi valable pour une matrice carrée ayant le polynôme caracté-
ristique scindé.
Ainsi si on pose
p−1
X
p
P =X − ak X k
k=0
on a
P (u)(x) = 0.
Le sous-espace vectoriel F = Vect(Fx ) est stable par u puisque les images des
vecteurs de la famille Fx , par u sont des combinaison linéaires de ceux ci. Si on
note uF l’endomorphisme induit on a χuF |χu . On va montrer que :
χu F = P
0 · · · 0 1 ap−1
Donc :
p−1
!
X
χB = X X p−1 − ak X k−1 + (−1)p−1+1 a0 (−1)p−1
k=1
Donc :
p−1
X p−1
X
p j p
χB = X − aj X − a0 = X − ak X k
j=1 k=0
Preuve En effet toute valeur propre de u est une racine du polynôme minimal µu
de u et comme P (u) = 0, on a µu |P et le résultat en découle.
3.7 Diagonalisation
Dans tout ce qui suit les espaces vectoriels considérés sont de dimension finie non
nulle.
Preuve
• Supposons qu’on a (i) et soit B une base de E tel que la matrice A = matB (u)
est diagonale. Notons λ1 , · · · , λs , les termes deux à deux distincts qui apparaissent
dans la diagonale de A avec des éventuelles répétitions pour chacun d’eux. Pour
tout i ∈ [[1, s]], notonsSCi la sous-famille de B de touts les vecteurs e tel que
u(e) = λi e. Soit C = Ci , la réunion étant faite de façon à ordonner les Ci par
ordre croissant de l’indice i. On a alors :
∆1
matC (u) = ...
∆s
où
∀k ∈ [[1, s]] ∆k = λk Ink
avec nk le nombre de vecteurs de la famille Ck . Donc
M s
E= Ek
k=1
avec Ek = Vect(Ck ) = Eλk (u).
• SupposonsSque (ii) est vraie. Pour tout λ ∈ Sp(u), notons Cα une base de Eλ (u)
et soit C = λ∈Sp(u) Cλ . Alors, C est une base de E adaptée à la somme directe de
l’hypothèse et c’est clairement une base formée de vecteurs propres de u puisque
si e est un vecteur de C , il existe λ ∈ Sp(u) tel que e est un vecteur de Cλ , donc
e ∈ Eλ (u), donc u(e) = λe et par suite e est un vecteur propre de u.
• Supposons que (iii) est vraie, soit B = (e1 , . . . , en ) une base de E formée de
vecteurs propres de u. Alors pour tout i ∈ [[1, n]], il existe λi ∈ K tel que u(ei ) =
λi ei , donc la matrice de u relativement à B est :
matB (u) = diag(λ1 , · · · , λn ).
Conclusion : On a démontré les implications : (i) ⇒ (ii), (ii) ⇒ (iii) et (iii) ⇒ (i),
donc les assertions (i), (ii) et (iii) sont équivalentes.
Définition 40. Si l’une des assertions (i), (ii), (iii) de la proposition 80 est réalisée,
on dit que u est diagonalisable.
Proposition 81. Soit u un P endomorphisme tel que Sp(u) 6= ∅. Alors u est diago-
nalisable si et seulement si dim(Eλ ) = dim E
λ∈Sp(u)
Théorème 8. Soit u ∈ L (E). Alors une condition nécessaire pour que u soit dia-
gonalisable est χu est scindé. Si cette condition est remplie alors u est diagonalisable
si et seulement si pour tout λ ∈ Sp(u), on a m(λ) = d(λ) où m(λ) est la multiplicité
de λ et d(λ) = dim(Eλ (u).
Preuve En effet, le fait que χu soit scindé est une condition nécessaire pour que
u soit diagonalisable puisque si u est diagonalisable il admet une matrice Q D =
diag(λ1 , · · · , λs ) dans une base de diagonalisation et par
P suite ,χu = (X − λk ).
Supposons donc que χu est scindé alors P on a n = m(λk ). En particulier
P u
est diagonalisable si et seulement si n = d(λk ) si et seulement si (m(λk ) −
d(λk ) = 0 si et seulement si m(λk ) = d(λk ), ∀k car on sait que m(λk ) − d(λk ) ≥ 0,
pour tout k ∈ [[1, s]].
Proposition 82. une matrice carrée est diagonalisable si et seulement si elle est
semblable à une matrice diagonale.
Proposition 83. Si u est diagonalisable et λk , k ∈ [[1, s]] ses valeurs propres deux à
s
P
deux distinctes alors u = λk πk où les πk sont les projecteurs associés à la somme
k=1
s
directe : E = ⊕ Ek
k=1
s
P
Théorème 9. Si P ∈ K[X] alors, avec les notations ci-dessus, P (u) = P (λk )πk
k=1
m
Preuve PSi P = X , raisonnons par récurrence sur m. Pour m = 0,∗ il vient
IdE = P πk , chose juste. Pour m P=m1 c’est la prop ci-dessus. Soit m ∈ N tel que
m m m
u
P = mλk πP k . On a πj u = λk πj πk = λj πj de sorte que um+1 = u.um =
m
λj πj u = j λm+1 j πj .
N
am X m , alors :
P
Pour finir, soit P ∈ K[X] tel que P =
m=0
N
X
P (u) = am um
m=0
XN Xs
= am λm
j πj
m=0 j=1
s N
!
X X
= am λ m
j πj
j=1 m=0
Xs
= P (λj )πj .
j=1
3.7.2.2 Conséquences
Théorème 10. u est diagonalisable ssi son polynôme minimal µu est scindé à racines
simples.
3.8 Trigonalisation
Tout espace vectoriel considéré dans ce paragraphe est de dimension finie non nulle
3.8.1 Définitions
3.8.1.1 Endomorphisme trigonalisable
3.8.2.2 Cas où K = C
Théorème 12. Soit E un C espace vectoriel de dimension finie. Alors tout endo-
morphisme de E est trigonalisable.
Définition 45. Soit A une matrice carrée. A est nilpotente s’il existe k ∈ N∗ tel
que Ak = 0. le plus petit k ∈ N∗ vérifiant Ak = 0 s’appelle indice de nilpotence de
A.
3.8.3.2 Caractérisation
Puisque (u − λk IdE )mk ∈ K[u], le sous-espace vectoriel Fk = ker(u − λk IdE )mk est
stable par u et si on note uk l’endomorphisme induit associé on a uk = IdFk +νk avec
νk = uk − λk IdFk . On remarque que Fk = ker(νk )mk , ce qui se traduit par νkmk = 9,
donc νk est nilpotent. Ceci est résumé par la :
Sp(u) = {λ1 , · · · , λs }
et s
Y
χu = (X − λk )mk
k=1
alors : s
M
E= ker(u − λk IdE )mk
k=1
les sous-espaces vectoriels Fk = ker(u − λk IdE )mk ; k ∈ [[1, s]], sont stables par u et
si pour tout k ∈ [[1, s]], on note uk l’endomorphisme de Fk induit par u à Fk , alors
uk = λk IdFk +νk où νk ∈ L(Fk ) est un endomorphisme nilpotent de Fk .
Remarque Avec les notations ci-dessus, si on note πk les projecteurs sur Fk paral-
lèlement à s
M
Fk =
c Fj
j=1
j6=k
et pour tout x ∈ E :
s
X
ν(x) = νj (πj (x))
j=1
u = ν + δ et ν ◦ δ = δ ◦ ν
où s
X
δ= λj πj .
j=1
Preuve On à démontrer :
• ν est nilpotent :
En effet : ν n = 0 où n = dim(E) car pour tout k ∈ [[1, s]], on a νk mk = 0 et mk ≤ n
donc νk m = 0
• δ est diagonalisable :
En effet ⊕Fk = E et pour tout x ∈ Fk , δ(x) = λk x, donc les λk sont les valeurs
propres de δ et les sous-espaces propres associés Fk son en somme directe.
• δ et ν commutentPs :
En effet, si x = k=1 xk avec xk ∈ Fk alors
s
X
δ(x) = λk xk ,
k=1
donc s
X
ν(δ(x)) = λk νk (xk );
k=1
par ailleurs
s
X
ν(x) = νk (xk )
k=1
et comme νk (xk ) ∈ Fk , on a
s
X
δ(ν(x)) = λk νk (xk ),
k=1
ce qui prouve ν ◦ δ = δ ◦ ν.
Les remarques ci-dessus ont déjà prouvé l’existence d’une telle décomposition. L’uni-
cité est un peu plus difficile et de toute façon c’est du hors programme.
Définition 46. Soit E un K espace vectoriel. On appelle norme sur E toute appli-
cation N de E vers R+ tel que :
(1) (∀(x, y) ∈ E 2 ) N (x + y) ≤ N (x) + N (y)
(2) (∀x ∈ E)(∀λ ∈ K) N (λx) = |λ|N (x)
(3) (∀x ∈ E) N (x) = 0 ⇒ x = 0
96
4.1. NORME SUR UN ESPACE VECTORIEL : Cours deuxiéme année MP
kxk − kyk ≤ kx − yk
kyk − kxk ≤ ky − xk
et finalement :
|kxk − kyk| ≤ kx − yk
5. Les axiomes (1), (2), (3) définissant une norme sont nommés respectivement :
(1) : Axiome de l’inégalité triangulaire.
(2) : Axiome de l’homogénéité.
(3) : Axiome de la séparation.
6. Si N réalise (1) et (2), on dit que N est une semi-norme sur E. Une norme est
donc une semi-norme mais une semi-norme n’est pas forcément une norme, ce
qui est prouvé par le contre-exemple suivant :
7. Si ν : E → R est une application qui satisfait les axiomes (1) et (2) de la
définition 46 ci-dessus, alors ν est à valeurs dans R+ . En effet : On a tout
d’abord ν(0) = ν(0.0) = |0|ν(0) = 0 (homogénéité) ; si x ∈ E alors par
homogénéité, on a ν(−x) = ν(x) ; ensuite ν(0) = ν(x − x) = ν(x + (−x)) ≤
ν(x) + ν(−x) =≤ 2ν(x), donc ν(x) ≥ 0.
Remarque Un norme est donc une semi-norme qui satisfait aussi l’axiome de sé-
paration. Ainsi toute norme est une semi-norme mais une semi- norme peut ne pas
être une norme comme le montreront les exemples suivants.
Exemples Voici des exemples intéressants de semi-normes :
1. Soit E = CM([0, 1], R) l’espace vectoriel réel des fonction continues
R1 par mor-
ceaux de [0, 1] vers R, et pour tout f ∈ E, posons : N (f ) = 0 |f (t)|dt ; alors
N est une semi-norme sur E, mais ce n’est pas une norme car pour f définie
par :
1 si x = 0
f (x) = ,
0 si 0 < x ≤ 1
on a N (f ) = 0 alors que f 6= 0.
2. Soit (E, k.k) un espace vectoriel normé, X un ensemble non vide et A une partie
finie non vide de X. On considère E X , l’espace vectoriel des applications de X
vers E et pour tout f ∈ E X , on pose :
X
νA (f ) = kf (a)k
a∈A
Définition 48. Soi X un ensemble non vide . On appelle distance sur X toute
application d : X 2 → R+ vérifiant :
(1) ∀(x, y) ∈ X 2 d(x, y) = d(y, x)
(2) ∀(x, y, z) ∈ X 3 d(x, y) ≤ d(x, z) + d(z, y)
(3) ∀(x, y) ∈ X 2 d(x, y) = 0 ⇔ x = y
Remarque on a alors :
Preuve Soit m, n, p ∈ N :
• Il est clair que d(m, n) = d(n, m) puisque δm,n = δn,m .
• On a d(m, n) + d(n, p) ≥ d(m, p) car si m = p alors d(m, p) = 0 et si si m 6= p
alors forcément m 6= n ou n 6= p donc d(m, n) = 1 ou d(n, p) = 1, par suite
Proposition 89. Si (E, k.k) est un espace vectoriel normé alors l’application :
d : E2 → R+
(x, y) 7→ d(x, y) = kx − yk
Preuve On va établir que l’application d ainsi définie vérifie les trois axiomes
d’une distance :
• Soit (x, y) ∈ E 2 , on a kx − yk = ky − xk, donc d(x, y) = d(y, x).
• Soit (x, y, z) ∈ E 3 alors, par l’axiome de l’inégalité triangulaire, on a :
kx − yk = k(x − z) + (z − y)k ≤ kx − zk + ky − zk ,
ce qui donne :
∀(x, y, z) ∈ E 3 d(x, y) ≤ d(x, z) + d(z, y)
d(x, y) = 0 ⇔ kx − yk = 0
kx − yk = 0 ⇔ x − y = 0
donc :
∀(x, y) ∈ E 2 d(x, y) = 0 ⇔ x = y
.
4.1.1.4 Distance d’un point à une partie d’un espace vectoriel normé
Proposition-Définition 5. Soit A une partie non vide d’un espace vectoriel normé
E et a ∈ E. La partie :
YA = {kx − ak /x ∈ A},
admet une borne inférieure comme partie de R. le nombre réel inf YA est appelé
distance du point a à la partie A de E et est noté d(a, A).
La sphère unité de R2 muni des normes usuelles respectives k.k1 , k.k2 , k.k∞ sont
représentée ci-dessous par les figures respectives de gauche à droite :
Définition 50. Soit (E, k.k) un espace vectoriel normé et A une partie de E. On dit
que A est bornées si A est contenue dans une boule fermée de E de centre l’origine
de. Autrement dit s’il existe R ≥ 0 tel que :
∀x ∈ A kxk ≤ R
Définition 51. Soit (E, k.k) un espace vectoriel normé et X un ensemble non vide.
Une application f de X vers E est dite bornée si f (X) est une partie bornée de
l’espace vectoriel normé (E, k.k)
Proposition 91. Soit A une partie non vide bornée de E. Alors l’ensemble :
XA = {kx − yk /(x, y) ∈ A2 }
admet une borne supérieure. Le nombre réel positif sup(XA ) s’appelle le diamètre de
A. On le note δ(A) ou d(A).
Preuve Puisque A est bornée, il existe un nombre réel M tel que : kxk ≤ M pour
tout x ∈ A. Il en résulte que : pour tout (x, y) ∈ A2 , on a :
kx − yk ≤ kxk + kyk ≤ 2M
Exercice :
Soit E un espace vectoriel normé. Soit a ∈ E et r ∈]0, +∞[. Prouver que : δ(B(a, r)) =
δ(Bf (a, r)) = δ(S(a, r)) = 2r.
Y = {kx − yk /(x, y) ∈ A2 }
On va construire une suite (yn ) de points de Y qui converge vers 2r. Posons alors
nr a nr a
pour tout n ∈ N, yn = kun − vn k avec un = a + n+1 kak et vn = a − n+1 kak . On
n
a alors : kun − ak = kvn − ak = n+1 r < r, donc yn ∈ Y et on a d’autre part :
n
yn = 2r n+1 de sorte que : lim yn = 2r.
n→+∞
Conclusion : sup Y = 2r, par suite δ(A) = δ(B(a, r)) = 2r
Définition 52. Soient E et F deux espaces vectoriels normés dont les normes
prennent la même notation k.k. Soit A une partie non vide de E et f une application
de A vers F . On dit que f est lipshitzienne sur A s’il existe une constante réelle
positive k tel que :
Définition 53. Soit A une partie de l’espace vectoriel normé (E, k.k). On dit que
A est une partie ouverte (ou simplement un ouvert) de E si A est vide ou A est non
vide et : (∀a ∈ A)(∃ε > 0) B(a, ε) ⊂ A. On dit que A est une partie fermée (ou
un fermé) si son complémentaire dans E est un ouvert.
Alors (On )n∈N∗ est une famille d’ouvert et n∈N∗ On = {0} n’est pas un ouvert.
4.1.7 Voisinage
Dans tout ce qui suit (E, k.k) est un espace vectoriel normé.
4.1.8 Topologie
4.1.8.1 Introduction
Soit (E, k.k) un espace vectoriel normé. On note O l’ensemble des ouverts de (E, k.k)
. On peut ainsi dire que l’on a les trois points suivants :
(i) ∅ ∈ O et E ∈ O
(ii) Si (Oi )i∈I est une famille d’éléments de O alors Oi ∈ O
S
i∈I
(iii) Si O et O0 sont deux éléments de O O ∩ O0 ∈ O
Définition 55. On exprime ça en disant que (E, O) est l’espace topologique associé
à E et à la norme k.k . On dit aussi que O est la topologie sur E associée à la norme
k.k
N ≤ kN 0 et N 0 ≤ k 0 N
5. Si on note SN1 la sphère unité de (E, N ), on peut dire que N et N 0 sont équi-
valentes si et seulement si SN1 est bornée dans (E, N 0 ) et SN1 0 est bornée dans
(E, N ).
6. On verra plus lois que les assertions suivantes sont équivalentes :
(a) N et N 0 sont équivalentes.
(b) (E, N ) et (E, N 0 ) ont les mêmes ouverts.
(c) (E, N ) et (E, N 0 ) ont les mêmes fermés.
(d) (E, N ) et (E, N 0 ) ont les mêmes parties bornées.
Dans tout ce qui suit , on considère un espace vectoriel normé (E, k.k)
Définition 58. Soit A une partie de E.On note A ou Adh(A) l’ensemble des points
adhérents à A et on l’appelle l’adhérence de A.
Proposition 95. L’adhérence d’une partie A est l’intersection de tous les fermés
contenant A. C’est donc le plus petit fermé (au sens de l’inclusion) contenant A.
Exercice :
Soient A et B deux parties de E .
1. Montrer que A ⊂ A
2. Montrer que A ⊂ B ⇒ A ⊂ B
3. Montrer que : (A ∪ B) = A ∪ B et que (A ∩ B) ⊂ A ∩ B en donnant des
exemples où cette inclusion est stricte.
Réponse :
1. On a A ⊂ A car si x ∈ A toute boule de centre a rencontre A en a par exemple.
2. Si A ⊂ B, soit x ∈ A, pour tout r > 0, on a B(a, r) ∩ A ⊂ B(a, r) ∩ B et
comme B(a, r) ∩ A 6= ∅, on a B(a, r) ∩ B 6= ∅, donc x ∈ B.
A⊂A∪B A⊂A∪B
3. On a , donc par le 2) ci-dessus, on a donc A∪B ⊂
B ⊂A∪B B ⊂A∪B
A∪B
On a A ⊂ AB ⊂ B donc A ∪ B ⊂ A ∪ B et comme A ∪ B est un fermé , on a
A ∪ B ⊂A ∪ B
A∩B ⊂A A∩B ⊂A
Comme , on a : donc A ∩ B ⊂ A ∩ B.
A∩B ⊂B A∩B ⊂B
Pour A =]0, 1[, B =]1, 2[, on a A ∩ B = ∅ mais A = [0, 1], B = [1, 2] donc
∅ = A ∩ B ( {1} = A ∩ B.
4.1.10.2 Densité
Définition 59. Soit (E, k.k) un espace vectoriel normé, A et B deux parties de E
tel que A est non vide et A ⊂ B. On dit que A est dense dans B si B ⊂ A.
Dans tout ce qui suit , on considère un espace vectoriel normé (E, k.k)
Définition 60. Soit A une partie de E. Un point a de E est dit intérieur à A s’il
existe une boule ouverte de centre a contenue dans A .
Autrement dit :
Définition 61. Soit A une partie de E.On note A◦ l’ensemble des points intérieurs
à A et on l’appelle l’intérieur de A.
Proposition 97. L’intérieur d’une partie A est la réunion de tous les ouverts conte-
nus dans A. C’est donc le plus grand ouvert (au sens de l’inclusion) contenu dans
A.
c
4. Prouver que (A◦ )c = Ac et A = Ac ◦ . retrouver les résultats ci-dessus à partir
de ceux de l’exercice sur l’adhérence.
Exercice :
1. Montrer que si A est une partie bornée d’un espace vectoriel normé E alors son
adhérence A est bornée et δ(A) = δ(A)
2. En est il de même de l’intérieur de A ?
Exercice : Soit A une partie de E.
1. Prouver que A = {x ∈ A/d(x, A) = 0}
2. Montrer que δ(A) = δ(A) = δ(∂A)
4.1.12 Frontière
Définition 62. Soit A une partie de l’espace vectoriel normé E. on appelle frontière
de A, le sous ensemble de E noté Fr(A) ou ∂A tel que : ∂A = A\ A◦
n n
! 12
X X n
kxk1 = Nk (xk ), kxk2 = (Nk (xk )2 , kxk∞ = sup Nk (xk )
k=1
k=1 k=1
Alors il s’agit de trois normes sur E. De plus elles sont équivalentes. Si k.k désigne
l’une d’elles alors (E, k.k) est appelé espace vectoriel normé produit des Ek
Une suite à valeurs dans E est une application u d’une partie I de N vers E. On
la note (un )n∈I . Les suites les plus utilisés sont celles pour lesquelles I est de la
forme Np avec p ∈ N où Np est l’ensemble des entiers naturels ≥ à p.Ces suites se
ramènent au cas I = N et souvent on a I = N∗ , on les note donc (un )n≥0 et (un )n≥1
respectivement. Si on note (un ) c’est que I = N.
L’ensemble de toutes les suites de I vers E est noté E I
4.2.1.2 Opérations
Définition 63. Un suite (un ) à valeurs dans E est bornée si l’ensemble de ses valeurs
{Un /n ∈ N} est une partie bornée de l’espace vectoriel normé E. C’est-à-dire si :
Exemple Soit E = C ([0, 1], R) l’espace vectoriel des fonctions continue muni de la
norme k.k∞ et la suite (un ) tel que :
(∀n ∈ N)(∀x ∈ [0, 1]) un (x) = nxn
On a : kun k∞ = n car la fonction x 7→ xn est croissante sur [0, 1] et sa valeur
maximale est atteinte au point 1. On a donc en particulier : lim kun k∞ = +∞,
n→+∞
d’où la suite (un ) n’est pas bornée dans l’espace vectoriel normé (E, k.k∞ ).
Regardons maintenant ce qui se passe pour cette suite dans l’espace vectoriel normé
(E, k.k1 ). Calculons pour n ∈ N :
Z 1
n
kun k1 = |un (x)|dx =
0 n+1
Dès lors que :
(∀n ∈ N) kun k1 ≤ 1
et la suite (un ) est bornée dans l’espace vectoriel normé (E, k.k1 ).
Nous remarquons que la notion de ’suite bornée’ dépends de la norme utilisée même
si on a le même espace vectoriel
Définition 64. Soit (un ) une suite (un ) à valeurs dans E et ` ∈ E. On dit que `
est une limite de la suite (un ) si : la suite réelle (kun − `k)n est convergente vers 0
Proposition 101. Si une suite admet une limite ` alors elle est unique. On la note
` = lim un .
n→+∞
Proposition 102. Si est l’ensemble des suites convergentes à valeurs dans E alors
S est un sous-espace vectoriel de E, de plus l’application L qui associe à chaque u
de S sa limite est une application linéaire de S vers E
Définition 65. Soit (un ) une suite à valeurs dans E. On appelle sous-suite ou suite
extraite de (un ) toute suite de la forme (uϕ(n) ) où ϕ est une application strictement
croissante de N vers N.
Définition 66. Soit (un ) une suite à valeurs dans E et a ∈ E. On dit que a est
une valeur d’adhérence de la suite (un ) s’il existe une sous-suite de la suite (un ) qui
converge vers a.
Définition 67. Une suite (un ) à valeurs dans un espace vectoriel normé E est dite
de Cauchy si :
3. Toute suite convergente et de Cauchy mais on verra que la réciproque est fausse
en général.
Définition 68. On dit qu’un espace vectoriel normé (E, k.k) est complet si toute
suite de Cauchy à valeurs dans E est convergente. On dit aussi que (E, k.k) est un
espace de Banach.
Proposition 104. Si Ei avec i ∈ {1, ..., n} sont des espaces de Banach alors
n
Q
E= Ei est un espace de Banach.
i=1
Remarque on verra plus loin que Kd muni de n’importe quelle norme est un espace
de Banach.
Proposition 105. Toute suite de Cauchy à valeurs dans (E, k.k) est bornée
Preuve Soit (un ) une telle suite. En prenant ε = 1, il existe N ∈ N tel que
kup − uq k < 1 pour p, q ≥ N . En particulier (p = N et q = n ≥ N ), on a pour
tout n ≥ N :
kun − uN k < 1
et comme :
kun k − kuN k ≤ kun − uN k
on a :
kun k ≤ 1 + kuN k
pour tout n ≥ N . En prenant : M 0 = max(kuk k/k ≤ N } et M = max(M 0 , kuN k+
1) on voit que :
∀n ∈ N kun k ≤ M
et comme kun − `k∞ tends vers 0, on a vn tends vers ` et wn tends vers `0 . Réci-
proquement supposons que (vn ) tends vers ` et (wn ) tends vers `0 . On adopte la
norme k.k1 . On a :
kun − `k1 = kvn − `k + kwn − `0 k
Le membre de droite est le terme général d’une suite qui converge vers 0 dans R,
donc (un ) converge vers `.
Proposition 107. Soit A une partie non vide de E. Alors l’adhérence de A est
l’ensemble de toutes les limites possibles de suites convergentes dans E à valeurs
dans A
Corollaire 16. Une partie A de E est fermée si et seulement si pour toute suite
(an ) à valeurs dans A si (an ) converge vers ` ∈ E alors : ` ∈ A
4.3.1 Limites
4.3.1.1 Limite d’une application en un point adhérent à une partie
Définition 70. Soit A une partie de R contenant un intervalle de la forme [a, +∞[
et ` ∈ E. on dit que lim f (x) = ` si :
x→+∞
Preuve Supposons que (?) lim f (x) = `. Soit (an ) ∈ AN une suite tel que
x→a
x∈A
(??) lim an = a. Soit ε > 0, alors par (?) il existe η > 0 tel que :
n→+∞
∀n ∈ N, n ≥ N ⇒ kan − ak < ε
On a alors :
∀n ∈ N, n ≥ N ⇒ kf (an ) − `k < ε.
donc lim f (an ) = `.
n→+∞
lim = `, alors
Réciproquement, supposons qu’on a la négation de x→a
x∈A
1
∃ε0 > 0, ∀n ∈ N∗ , ∃an ∈ A, kan − ak < et kf (an ) − `k > ε.
n
On a ainsi construit une suite (an ) ∈ AN tel que lim an = a mais on n’a pas
n→+∞
lim f (an ) = `.
n→+∞
Proposition
Q 109. Soit (Ei , Ni )1≤i≤n une famille d’espaces vectoriels normés et
E = Ei l’espace vectoriel normé produit. Soit ` = (`i )1≤i≤n ∈ E et
f :A→E
de composantes (fi )1≤i≤n une application et a ∈ A. Alors
lim f (x) = ` ⇔ ∀i ∈ [[1, n]], x→a
x→a
lim fi (x) = `i
x∈A x∈A
Soit ε > 0. Comme lim f (x) = ` et lim g(x) = `0 , il existe η1 , η2 > 0 tel que :
x→a x→a
4.3.2 Continuité
Définition 71. Soit f une application d’une partie A non vide de E vers F et soit
a ∈ A.
1. On dit que f est continue au point a si lim f (x) = f (a).
x→a
2. On dit que f est continue sur A si f est continue en tout point de A.
Preuve Soit x ∈ A. Par densité de C il existe une suite (cn ) ∈ C N tel que
lim cn = x. Par continuité de f et g on a f (x) = lim f (cn ) et g(x) =
n→+∞ n→+∞
lim g(cn ) et comme cn ∈ C, pour tout n, on a ∀n ∈ N, f (cn ) = g(cn ), d’où,
n→+∞
lim f (cn ) = lim g(cn ) et finalement f (x) = g(x). Donc ∀x ∈ A, f (x) = g(x).
n→+∞ n→+∞
Proposition 117. Soit f une application d’une partie A de E vers F . Alors f est
continue sur A si et seulement si l’image réciproque par f de tout ouvert deF est un
ouvert de A.
Proposition 118. Soit f une application d’une partie A de E vers F . Alors f est
continue sur A si et seulement si l’image réciproque par f de tout fermé deF est un
fermé de A.
Remarques Voici des conséquences très utiles en pratique des propositions précé-
dentes :
1) Soit A une partie de l’espace vectoriel normé (E, k.k) et f : A → R une applica-
tion. Alors :
Preuve Immédiat car des images réciproques par des fonctions continues de l’une
des parties suivante de R : Soit {0} ou [0, +∞[ ou ] − ∞, 0] qui sont des fermés de
R.
Soit ] − ∞, 0[ ou ]0, +∞[ qui sont des ouverts de R
Définition 72. Soit A une partie non vide de E et f une application de A vers F .
On dit que f est uniformément continue sur A si :
Remarque Tout application f de A vers F qui est lipschitzienne sur A est unifor-
mément continue sur A
4.3.4.1 Exemple
Proposition 120. Soit (E, k.k) un espace vectoriel normé, alors l’application : k.k
considérée comme application de l’espace vectoriel normé E vers l’espace vectoriel
normé R est une application uniformément continue sur E
Proposition 121. Soit A une partie non vide de E. l’application x 7→ d(x, A) est
uniformément continue sur E.
ce qui donne
d(x, A) ≤ d(x, y) + d(y, A),
donc
d(x, A) − d(y, A) ≤ d(x, y)
et par symétrie des rôles on a aussi
d’où
∀x, y ∈ E, |d(x, A) − d(y, A)| ≤ kx − yk.
Il en découle que l’application x 7→ d(x, A) est lipschitzienne, donc uniformément
continue sur E.
4.4 Compacité
Dans tout ce qui suit (E, k.k) est un espace vectoriel normé.
Définition 73. Soit K une partie de E. On dit que K est compacte (ou un compact)
si : de toute suite (xn ) à valeurs dans K on peut extraire une suite convergente dont
la limite appartient à K
Comme K est compact, il existe une sous-suite (xϕ(n) ) de la suite (xn ) convergente
vers ` ∈ K. On a :
En particulier :
(∀n ≥ N ) xϕ(n) ≤ k`k + 1
Donc la suite (xϕ(n) ) est bornée, ce qui est en contradiction avec le fait que
lim kxn k = +∞
n→+∞
Proposition 123. Si K est une partie compacte de E et si A est une partie fermée
de K alors A est une partie compacte de E
Preuve Soit (an ) une suite à valeurs dans A. Alors (an ) ∈ K N , et comme K est
compact, elle admet une valeur d’adhérence a ∈ K. Il reste à montrer que a ∈ A.
Comme K est un fermé de E, le fermé A de K est aussi un fermé de E. Il existe
une sous suite (aϕ(n) ) de la suite (an ) qui converge vers a, donc par fermeture de
A , on a : a ∈ A.
Preuve Si (Ki )i∈I est une famille de compacts alors les Ki sont fermés , donc leur
intersection est un fermé contenu dans un compact Kj pour un certain j ∈ I, donc
cette intersection est un compact.
Preuve Soit (yn ) une suite à valeurs dans f (K). Montrons qu’elle admet au moins
une valeur d’adhérence appartenant à f (K). Pour tout n ∈ N, il existe xn ∈ K
tel que f (xn ) = yn . La suite (xn ) étant à valeurs dans le compact K, elle admet
une valeur d’adhérence λ ∈ K. Soit donc (xϕ(n) ) une sous-suite de (xn ) de limite
λ. Par continuité de f , la suite (f (xϕ(n) ) = (yϕ(n) ) est convergente vers f (λ). Il en
résulte que f (λ) est une valeur d’adhérence de la suite (yn ). Comme λ ∈ K, on a
f (λ) ∈ f (K), ce qui finit la preuve.
Proposition 125. Soit (E, k.k) un espace vectoriel normé et K une partie non vide
compacte de E et soit f : K → R une application continue , alors f est bornée sur
K et atteint ses bornes.
Preuve D’après la proposition qui précède , f (K) est une parte compacte de R ,
elle est donc fermée bornée. Soient m et M ses bornes inférieur et supérieur res-
pectivement. Il existe une suite (xn ) de f (K) qui converge vers m et par fermeture
on a m ∈ f (K) donc il existe a ∈ K tel que f (a) = m, par le même raisonnement
il existe b ∈ K tel que f (b) = M .
Preuve Soit (zn ) = ((xn , yn ))n une suite à valeurs dans K1 × K2 . Comme K1 est
compact , il existe une sous-suite (xϕ(n) ) de la suite (xn ) convergeant vers λ1 ∈ K1 .
La suite (yϕ(n) )n étant à valeurs dans le compact K2 de F , elle admet une sous-
suite (yϕ(ψ(n)) ) convergeant vers λ2 ∈ K2 . La suite (xϕ(ψ(n)) )n est une sous-suite de
(xϕ(n) ), donc elle converge vers λ1 . Il en résulte que si on pose : χ = ϕ ◦ ψ alors
la suite (zχ(n) )n = ((xϕ(ψ(n)) , xϕ(ψ(n)) )n est une sous-suite de (zn ) qui converge vers
λ = (λ1 , λ2 ) ∈ K1 × K2 . Ceci termine la preuve de la proposition.
Théorème 15. (de Heine) E et F sont des espaces vectoriels normés. Soit
f : A → F une application. Si A est compacte et f continue sur A alors f est
uniformément continue sur A.
Exercice
Soit (E, k.k) un espace vectoriel normé et (un ) ∈ E N une suite convergente de limite
`. Montrer que K = {`} ∪ {un /n ∈ N} est un compact de E.
Proposition 127. Soient E et F deux espaces vectoriels normés dont les normes
sont notées k.kE et k.kF . Soit f ∈ L(E, F ) une application linéaire de E vers F .
Les assertions suivantes sont équivalentes :
(i) f est continue sur E
(ii) f est continue en 0E
(iii) f est bornée sur la boule fermée unité
(iv) f bornée sur la sphère unité
(v) (∃k ∈ R+ )(∀x ∈ E) kf (x)kF ≤ k kxkE
(vi) f est lipschitzienne sur E.
g est continue au point x0 , donc : lim g(x) = g(x0 ) = 0 donc lim f (x) = f (x0 ).
x→x0 x→x0
Conclusion : on a prouvé que : (i) ⇐⇒ (ii).
(ii) ⇒ (iii) : Comme f est continue au point 0E , on a :
Proposition 128. Soient E et F deux espaces vectoriels normés (avec E non nul)
et soit Lc (E, F ) le sous-ensemble de L(E, F ) des applications linéaires continues de
E vers F . Alors Lc (E, F ) est un sous-espace vectoriel de L(E, F ).
Proposition 129. Soient (E1 , k.k1 ), · · · , (Em , k.km ) et (F, k.k) des espaces vecto-
m
Q
riels normés et E = Ek l’espace vectoriel normé produit des Ek . Soit f : E → F
k=1
une application m−linéaire. Les assertions suivantes sont équivalentes :
(i) f est continue sur E
(v) (∃k ∈ R+ )(∀(x1 , · · · , xm ) ∈ E) kf (x1 , · · · , xm )k ≤ k kx1 k1 · · · kxm km
produit scalaire de E.
L’application E 2 → R, (x, y) 7→ hx, yi est continue, car on verra que l’inégalité
de Cauchy-Schwarz donne :
∀(x, y) ∈ E 2 , |hx, yi| ≤ kxkkyk
2. Soit E un K−espace vectoriel de dimension n avec n ∈ N∗ . Soit b = (bk )1≤k≤n
n
P
une base de E, et pour tout x = xk bk , on note kxkb = sup |xk |. On sait
k=1 1≤k≤n
que k.kb est une norme sur E. L’application :
f : E n → K, (V1 , . . . , Vn ) 7→ det(V1 , . . . , Vn )
b
est continue car multilinéaire et comme pour tout V = (Vj )1≤j≤n , si on pose
Pn P Qn
Vj = ai,j bi , on sait que f (V ) = ε(σ) aσ(j),j , de sorte que |f (V )| ≤
i=1 σ∈S n j=1
n! k = 1n kVk k, donc, en vertu de la proposition 129, f est continue.
Q
Proposition 130. Avec les notations ci-dessus, si Φ est continue sur F alors :
1. Si les applications fk sont continues en un point a de A alors Φ(f1 , . . . , fn ) est
continue au point a.
2. Si les applications fk sont continues sur A alors Φ(f1 , . . . , fn ) est continue sur
A.
f (x)−f (a) = Φ(f1 (x), f2 (x))−Φ(f1 (a), f2 (a)) = Φ(f1 (x)−f1 (a), f2 (a))+Φ(f1 (a), f2 (a)−f2
donc :
kf (x) − f (a)kG ≤ kΦ(f1 (x) − f1 (a), f2 (a))kG + kΦ(f1 (a), f2 (a) − f2 (x))kG
Il en découle que :
kf (x) − f (a)kG ≤ kkf1 (x) − f1 (a)kF1 kf2 (a))kF2 + kf1 (a)kF1 kf2 (x) − f2 (a))kF2 .
Théorème 16. Soit E un espace vectoriel de dimension finie, alors toutes les normes
de E sont équivalentes.
n
X
N (x) ≤ |xk |N (ek ) ≤ k kxk
k=1
où
k = sup N (ek )
1≤k≤n
Soit S la sphère unité de (E, k.k). Alors S est compacte de E d’après la proposition
ci-dessus. N comme application de (E, k.k) vers R est continue car lipshitzienne
car si (x, y) ∈ E 2 , alors :
|N (x) − N (y)| ≤ N (x − y) ≤ k kx − yk
Alors elle est bornée sur S et atteint sa borne inférieur m. Comme N (x) > 0
x
pour tout x ∈ S , on a : m > 0. Soit x ∈ E\{0} alors : kxk ∈ S et par suite
x
N kxk ≥ m, ce qui donne : N (x) ≥ m kxk , inégalité valable aussi si x = 0.
Ainsi :
∀x ∈ E m kxk ≤ N (x) ≤ k kxk
Il en résulte que toute norme N sur E est équivalente à la norme k.k, donc toutes
les normes sur E sont équivalentes.
k.k0 ≤ k k.k
On peut donc dire que k.k est plus fine que k.k0 si l’application
est continue.
• On rappelle que k.k et k.k0 sont équivalents s’il existe deux constantes k1 et k2
strictement positives tel que :
Ainsi deux normes sont équivalentes si chacune d’elles est plus fine que l’autre.
On peut donc dire que k.k et k.k0 sont équivalentes si l’application :
est bicontinue.
• Si deux normes sont équivalentes alors elles ont :
1. Les mêmes suites convergentes.
2. Les mêmes parties fermées.
3. Les mêmes parties ouvertes.
4. Les mêmes parties bornées.
5. Les mêmes parties compactes.
6. La même adhérence pour chaque partie A de E.
Proposition 133. soit (E, k.k) un K− espace vectoriel normé de dimension finie.
Alors une partie K de E est compacte si et seulement si K est fermée bornée.
Preuve Supposons que E est de dimension non nulle n soit B = (e1 , · · · , en ) une
n
P
base de E et munissons E de la norme ν(x) = sup |xi | pour x = xi ei . Pour tout
1≤i≤n i=1
R > 0, on note Bν,R la boule fermée de centre 0 et de rayon R. Soit K une partie
de E. Si K est compacte on a déjà vu que K est fermée bornée. Si K est fermée
n
n
P
bornée, il existe R > 0 tel que K ⊂ Bν,R . Soit ϕ : K → E; X 7→ ϕ(X) = xi ei ,
i=1
pour tout X = (xi )1≤i≤n ∈ Kn . Alors ϕ est linéaire et réalise ν(ϕ(x)) = kxk∞
pour tout (xi ) ∈ K n , par suite ϕ est continue. La boule fermée B(0, R) de Kn est
compacte par la proposition ci-dessus, donc ϕ(B(0, R)) = Bν,R est un compact de
E, or K est un fermé contenu dans Bν,R donc K est compact.
Preuve Si E = {0} c’est trivial Sinon, soit B = (e1 , ..., en ) une base de E. Si
Pn
x= xk ek alors :
k=1
n
X
kf (x)k ≤ ( sup |xk |) kf (ek )k
1≤k≤n
k=1
Comme en dimension finie toutes les normes sont équivalentes et que k.k∞ : x 7→
sup |xk | est une norme sur E, il existe k > 0 tel que k.k∞ ≤ k k.k de sorte que :
1≤k≤n
∀x ∈ E kf (x)k ≤ k 0 kxk
n
avec k 0 = k
P
kf (ek )k
k=1
alors : m
X Y
f= aα πkαk
α∈J k=1
πk (x) = xk
Preuve Les applications πk sont linéaires et Km de dimension finie donc elles sont
continues sur Km . Pour tout p ∈ N∗ l’application : Vp : K → K; t 7→ tp est continue
m
m
Q
et finalement l’application : W : K → K; x 7→ xk est continue car m−linéaire
k=1
et K de dimension finie. On a :
X
m
∀x = (xk )1≤k≤m ∈ K , f (x) = aα W ((Vαk (πk (x)))1≤k≤m )
α∈J
d’où la continuité de f .
Preuve Supposons qu’on n’a pas lim un = `. Alors il existe ε > 0 tel que :
n→+∞
(? ? ?) ∀n ∈ N, kuψ(ϕ(n)) − `k ≥ ε
Remarque La réciproque est vrai : si (un ) converge alors elle admet une unique
valeur d’adhérence même si la suite n’est pas supposée avoir ses valeurs dans un
compact.
Proposition 139. Si E est un espace vectoriel normé de dimension finie alors toute
suite (un ) ∈ E N d’éléments de E bornée ayant une unique valeur d’adhérence λ est
convergente de limite λ.
Preuve En effet, comme la suite (un ) est bornée, il existe R > 0 tel que ∀n ∈
N, un ∈ Bf (0, R). La boule fermée Bf (0, R) est un fermé borné de E. Comme E est
de dimension finie, Bf (0, R) est compacte, d’où le résultat d’après la proposition
138.
Proposition 140. Soit E un espace vectoriel normé de dimension finie, alors toute
suite bornée d’éléments de E admet au moins une valeur d’adhérence.
Preuve Si (un ) est une suite bornée il existe R ≥ 0 tel que ∀n ∈ N, kun k ≤ R.
Alors (un ) ∈ B N , où B est la boule fermée de centre 0 et de rayon R, laquelle est
fermée bornée donc compacte puisque E est de dimension finie. Il en découle que
(un ) admet au moins une valeur d’adhérence α appartenant à B.
Théorème 18. Tout espace vectoriel normé (E, k.k) de dimension finie est complet
Preuve Soit (un ) une suite de Cauchy dans E. Alors (un ) est bornée. Par la
proposition 140, la suite (un ) admet au moins une valeur d’adhérence. Supposons
, donc λ1 = λ2 .
Ce qui précède permet de dire que (un ) admet une unique valeur d’adhérence `.
Or (un ) étant bornée, il existe M ≥ 0 tel (un ) ∈ Bf (0, M ) qui est compact, donc
par la proposition 138 on a lim un = `.
n→+∞
Remarque C’est clair que c’est vrai pour n’importe quelle norme de Kn , puisque
toutes les normes sont équivalentes
4.7.1 Définitions
Définition 76. Soit A une partie non vide de A. On dit que A est connexe par
arc si pour tout (a, b) ∈ A2 , il existe un chemin continue ϕ : [0, 1] → E tel que
ϕ(0) = a et ϕ(1) = b
Remarque Intuitivement cela veut dire que tout couple de points de A peuvent
être joints par un chemin continu.
T
Preuve 1. Soit (Ci )i∈I une famille de convexes et C = i∈I Ci . Soit (a, b) ∈ C et
t ∈ [0, 1] Alors pour tout i ∈ I et comme Ci est convexe, on a : (1−t)a+tb ∈ Ci
donc (1 − t)a + tb ∈ C.
2. Soit A = B(a, r) une boule ouverte avec r > 0. Soit (x, y) ∈ A2 et soit
t ∈ [0, 1] alors :
3. même principe
4. trivial
ϕ(t) = (1 − t)a + tb
Remarque Réciproquement , il existe des parties connexes par arc qui ne sont pas
convexes. Par exemple dans R2 soit A = {x ∈ R2 / kxk2 ≥ 1 alors :
• A n’est pas convexe car par exemple : a = (0, 1) ∈ A et b = (1, 0) ∈ A mais pour
1 1 1
t = 2 , on a : (1 − t)a + tb = 2 , 2 ∈/A
Proposition 144. Soit A une partie de R. Les assertions suivantes sont équiva-
lentes :
1. A est un intervalle.
2. A est convexe.
3. A est connexe par arcs.
Proposition 145. Soient E et F deux espaces vectoriels normés, A une partie non
vide de E et f : A → F une application. Si f est continue sur A et A connexe par
arcs alors f (A) est connexe par arcs.
4.7.4 Méthodes pour montrer qu’une partie est connexe par arcs.
4.7.4.1 Partie étoilée par rapport à un point
Proposition 148. S’il existe a ∈ A tel que A est étoilée par rapport à a alors A
est connexe par arcs.
4.7.4.2 Méthode pour démontrer qu’une partie est connexe par arcs
Pour démontrer que A est connexe par arcs, on suit les étapes suivantes :
1. On regarde si A est un sous-espace vectoriel de E. Si c’est le cas , on sait qu’
un sous-espace vectoriel de E est convexe donc connexe par arcs.
2. Sinon, on regarde si A est une partie convexe de E.
3. Sinon, on regarde si on peut trouver une élément de A tel que A est étoilée par
rapport à a.
4. Sinon, on essaye de voir si A est l’image par une application continue d’un
connexe par arcs.
5. Sinon, on recours à la définition générale de partie connexe par arcs.
Dans tout ce qui suit tous les espace vectoriels considérés sont des espaces vectoriels
sur R.
5.1 Généralités
5.1.1 Produit scalaire, espaces préhilbertiens réels
p
Remarques 1. On note kxk = hx, xi, pour tout x ∈ E.
Exemples Dans chacun des exemples ci-dessus, E est un espace vectoriel réel et h.i
est un produit scalaire sur E.
1. E = Rn avec n ∈ N∗ , et pou tout x = (xk )1≤qk≤n , y = (yk )1≤qk≤n ∈ E :
n
X
hx, yi = xk yk
k=1
149
5.1. GÉNÉRALITÉS Cours deuxiéme année MP
2. E = C([0, 1], R) l’espace vectoriel réel des applications continues de [0, 1] vers
R. Pour tout f, g ∈ E on pose :
Z 1
hf, gi = f (t)g(t)dt
0
kx + yk ≤ kxk + kyk
p
Proposition 150. L’application E → R+ , x 7→ kxk = hx, xi est une norme sur
E, appelée norme euclidienne associée au produit scalaire de E ;
5.1.3 Identités
Dans tout ce qui suite E est un espace préhilbertion réel.
Remarque Pour démontrer qu’une norme n’est pas une norme euclidienne (c’est-
à-dire elle ne provient pas d’un produit scalaire), il suffit de prouver que l’identité
du parallélogramme n’est pas satisfaite pour un certain couple (x, y) de E 2 .
5.2 Orthogonalité
5.2.1 Généralités
Dans tout ce paragraphe E est un espace préhilibertien réel.
Définition 83. Soit I un ensemble non vide fini ou dénombrable et F = (xi )i∈I
une famille de vecteurs de E.
On dit que F est une famille orthogonlae si
∀i, j ∈ I, i 6= j ⇒ hxi , xj i = 0.
Remarque Toute famille orthogonale dont le vecteurs sont non nuls est une famille
libre.
Preuve Soit (ei )i∈I une telle famille. Si J est une partie finie non vide de I et
(αi )i∈J une famille de scalaires tel que :
X
αi ei = 0
i∈J
soit k ∈ J, alors : X
hek , αi ei i = 0
i∈J
donc
αk kek k2 = 0
et comme ek 6= 0 on a αk = 0.
Exemples :
1. On considère E = C2π (R, R) l’espace vectoriel des applications continues pério-
diques de R vers R muni de produit scalaires :
Z 2π
2
(f, g) ∈ E ; hf, gi = f (t)g(t)dt
0
n
P
Preuve Si on pose x = xk ek alors d’après la proposition ci-dessus hx, ek i = xk ,
k=1
d’où le résultat.
P
y= yi ei
i∈I
sont deux vecteurs de E alors :
X sX
hx, yi = xi yi et kxk = x2i
i∈I i∈I
Théorème 20. Soit E un espace euclidien de dimension non nulle n. Pour toute
forme linéaire f sur E, il existe un et un seule vecteur a de E tel que f = ha, .i,
c’est-à-dire :
∀x ∈ E, f (x) = ha, xi
(∀a ∈ E)(∃(b, b0 ) ∈ F × F ⊥ ) a = b + b0
5.3.1 Généralités
5.3.1.1 Définition, caractérisation
pF (x) ∈ F
On a donc pF ∈ L(E) et ∀x ∈ E,
x − pF (x) ∈ F ⊥
Avec les notations ci-dessus, on a la :
y∈F
Proposition 159. Pour tout (x, y) ∈ E 2 , on a : pF (x) = y ⇔
x − y ∈ F⊥
donc
kpF (x) − zk2 = kx − zk2 − kx − pF (x)k2
donc kpF (x) − zk2 ≤ 0 donc kpF (x) − zk = 0 et par suite z = pF (x).Ce qui achève
la preuve du théorème 23
Preuve Soit k ∈ [[1, p]], alors ek ⊥(x − pF (x)), donc : hek , xi = hek , pF (x)i
et comme pF (x) ∈ F et C est une base orthonormée de F , on a : pF (x) =
Pn
hpF (x), ek iek et le résultat en découle.
k=1
+∞
2
|hx, ek i|2 (Parseval).
P
(4) Pour tout x ∈ E, on a : kxk =
k=0
Preuve
• Supposons (1). Soit x ∈ E et ε > 0, alors il existe a ∈ Vect(E ) tel que kx −
ak < ε. Comme a S∈ V = Vect(E ) alors en vertu de la remarque ci-dessus que
V = Vect(E ) = n∈N Vn , il existe N ∈ N tel que a ∈ VN . Soit n ∈ N tel
que n ≥ N , alors VN ⊂ Vn par suite d(x, Vn ) ≤ d(x, VN ) et comme a ∈ VN ,
on a d(x, VN ) ≤ kx − ak par suite d(x, Vn ) < ε, et comme πn (x) ∈ Vn on a
d(x, πn (x)) < ε. On a donc prouvé que :
n
2
|hx, ek i|2
P
kπ n (x)k =
k=0
et
n Pn n
|hx, ek i|2
P P
hx, π n (x)i = hx, hx, e ie
k k i = k=0 hx, ek ihx, ek i =
k=0 k=0
donc :
Alors :
∀i, j ∈ [[1, n]], he0i , e0j i = hCi , Cj i = δij
Donc B 0 est une base orthonormée de E. Il est clair par (?) ci-dessus que A est la
matrice de passage de B à B 0 , ce qui achève la preuve de (6).
Proposition 163. Soit A est une matrice orthogonale alors det(A) ∈ {−1, 1}.
∀x ∈ E ku(x)k = kxk
(3) Il existe une base orthonormée E de E tel que matE (u) est une matrice ortho-
gonale.
(4) Pour toute base orthonormée E la matrice matE (u) est une matrice orthogonale.
(5) u transforme au moins une base orthonormée de E en une base orthonormée de
E.
(6) u transforme toute base orthonormée de E en une base orthonormée de E.
Si l’une des assertions ci-dessus est vérifiée on dit que u est un automorphisme
orthogonal.
en vertu de la remarque ci-dessus que F est stable par u−1 . Ainsi pour tout
x ∈ F ⊥ , on a u(x) ∈ F ⊥ , donc F ⊥ est stable par u.
2. F est stable par u car E1 (u) et E−1 (u) sont stables par u. Le théorème ??
permet de dire que G est stable par u.
3. Supposons que v admet une valeur propre λ, alors λ serait une valeur propre
de u donc λ ∈ {−1, 1}. Comme il existe x ∈ E\{0} tel que v(x) = λx, on
aurait x ∈ F , chose impossible car F ∩ G = {0}.
Proposition 167. On a
cos θ ε sin θ
O2 (R) = /θ ∈ R, ε ∈ {−1, 1}
sin θ −ε cos θ
a c
Preuve Soit A = ∈ M2 (R). Si A ∈ O2 (R) alors les colonnes de A
b d
2
a + b2 = 1
forment une base orthonormée de M2,1 (R), donc : c2 + d2 = 1 . L’égalité ac +
ac + bd = 0
a d a d
bd = 0 s’écrit aussi = 0, donc les vecteurs X = et Y =
b −c b −c
sont colinéaires,
et comme X 6= 0 car kXk = 1, il existe ε ∈ R tel que Y = εX,
ε = ±1
c = −εb
donc . On sait que a2 + b2 = 1 si et seulement si ∃θ ∈ R tel que
d = εa
2
a + b2 = 1
cos(θ) = a cos(θ) −ε sin(θ)
donc A = .
sin(θ) = b sin(θ) ε cos(θ)
Réciproquement il est aisé de voir que de telles matrices sont orthogonales (les
colonnes sont orthogonales entre elles et chacune de norme 1), ce qui finit la preuve
de la proposition.
Nous allons démontrer que tout endomorphisme orthogonal est représenté par une
matrice diagonale par blocs avec des termes diagonaux ayant une des formes sui-
vantes : Im , −Im ou Rθ avec θ ∈ R\πZ. Nous allons commencer par le cas particulier
important où u n’a aucune valeur propre réelle.
dans une base orthonormée adaptée est de la forme A = diag(−Iq , Rθ1 , . . . , Rθs ).
• Si Sp(u) = {−1, 1} alors E = E1 (u) ⊕ E−1 (u) ⊕ G avec G = (E1 (u) + E−1 (u))⊥
et on a vu dans le lemme 2 que Sp(uG ) = ∅. Donc, en vertu du théorème
26, la matrice de u dans une base orthonormée adaptée est de la forme A =
diag(Ip , −Iq , Rθ1 , . . . , Rθs ).
Définition 87. Soit (E, h.i) un espace préhilbertien réel de dimension finie ou infinie
et u ∈ L(E). On dit que u est symétrique si
Proposition 169. Soit (E, h.i) un espace préhilbertien réel de dimension finie ou
infinie et u un endomorphisme symétrique de E et F un sous-espace vectoriel de E.
Si F est stable par u alors F ⊥ est stable par u.
Remarque Il faut donc faire attention au fait que la base adoptée doit être ortho-
normée. Si la matrice de u relativement à une base quelconque est symétrique réelle,
cela ne suffit pas pour dire que u est symétrique.
χA = X 2 − (a + d)X + ad − b2
λ 6= µ ⇒ Eλ (u)⊥Eµ (u)
Voici la version matricielle du théorème spectral qui s’applique à une matrice réelle
symétrique. Il faut, chaque fois que l’on veut l’utiliser, faire attention et s’assurer
que la matrice symétrique concernée est réelle.
Théorème 29. Soit A ∈ Sn (R) une matrice carrée réelle symétrique d’ordre n
avec n ∈ N∗ , alors il existe une matrice orthogonale P et une matrice diagonale
réelle ∆ toutes de taille n tel que A = t P ∆P . On dit que A est orthogonalement
diagonalisable.
Les chapitres en questions sont déjà fait en première année. Vue leur importance
en deuxième année, on propose des de donner les rappels essentiels sur les deux
chapitres.
6.1.1.1 Définitions
180
6.1. INTÉGRALES GÉNÉRALISÉES Cours deuxiéme année MP
de [a, b] tel que pour tout k ∈ {0, · · · , n − 1}, f est continue sur ]ak , ak+1 [ et se
prolonge en une fonction continue sur [ak , ak+1 ]. Une telle subdivision est appelée
subdivision adaptée à f .
En
particulier les limites
à droites et à gauche aux points de discontinuité sont :
f (−1−) = −2 f (0−) = −1
; ; f (1−) = 0.
f (−1+) = −1 f (0+) = 0
sin x1 si x 6= 0
2. L’application f : [0, 1] → R définie par f (x) = n’est pas
0 si x = 0
continue par morceaux car x 7→ sin x1 n’admet pas de limite quand x tends vers
0 à droite.
1
3. L’application f : [−1, 1] → R; x 7→ x si x 6= 0 n’est pas continue par
0 sinon
morceaux car : lim+ f (x) = +∞.
x→0
6.1.2.1 Définition
6.1.2.2 Exemples
Rx
Exemples 1) f (x) = ln x pour tout x ∈]0, 1], F1 (x) = 1 ln tdt = x ln x − x vérifie
R1
F (1−) = F (1) = −1 et F (0+) = 0 donc 0 ln tdt = −1
1
√
x
si 0 < x ≤ 1
Exemples 2) Pour tout x ∈]0, +∞[ on pose f (x) = 1 . On
x 2 si 1 < x
Rx
voit
√ que f est continue par morceaux sur ]0, +∞[ car continue. F 1 (x) = 1 f (t)dt =
2 x − 2 si 0 < x ≤ 1 R +∞
, donc F1 (+∞) = 1 et F1 (0+) = −1, donc 0 f (t)dt =
1 − x1 si 1 < x
1+1=2
6.1.2.3 Propriétés
Rb
Proposition 177. Soit f ∈ CM(I, K) et c ∈ I. L’intégrale a f converge si et
Rc Rb Rb Rc Rb
seulement si les intégrales a f et c f convergent, auquel cas on a a f = a f + c f
R R
Proposition 178.R Soient f, g ∈ CM(I,RK) et λ ∈ K. RSi les intégrales
R I f et I g
convergent alors I (f + λg) converge et I (f + λg) = I f + λ I g
R
R f ∈ MC(I, K) alors |fR | ∈ CM(I,
Proposition 179. Soit R K) et si I |f | converge
il en est de même de I f et dans ce cas on a I f ≤ I |f |
R R
Définition 90. Soit f ∈ CM(I, K). Si I |f | converge on dit que l’intégrale I f
est absolument convergente
Définition
R 91. Soit f ∈ CM(I, K). On dit que f est integrable ou sommable sur
I si I f est absolument convergente.
R +∞ 2
Exemples l’intégrale I = 0 e−x cos x dx est divergente car la fonction x 7→ f (x) =
2 Rx
e−x cos x étant continue sur R+ il suffit de prouver que x 7→ 0 n’est pas majorée,
et pour cela, on considère pour tout n ∈ N tel que n ≥ 10 les réels an = π2 + nπ
Rb
et bn = π2 + nπ + n1 et posons In = ann f (x)dx. On va démontrer que la série
R
P bn
In est divergente et cela donnera en particulier le fait que la suite 0 f (t)dt
est non majorée car son terme général est majoré par une somme partielle de la
série.La fonction x 7→ cos2 x est croissante sur l’intervalle [an , bn ] donc la fonction
x 7→ −x cos2 x est décroissante sur cet intervalle et par suite pour tout x ∈ [an , bn ],
on a f (x) ≥ f (bn ) et par suite P In ≥ n1 f (bn ). Or un simple calcule montrer que
lim f (bn ) = 1, donc la série In est divergente or sa somme partielle Sn =
n→+∞
Pn R bn Rx
k=10 In ≤ 0 f (x)dx, ce qui prouve que x →
7 0 f (t)dt n’est pas majorée donc
R +∞
l’intégrale 0 f (x)dx est divergente.
R +∞
6.1.4.2 L’intégrale 0
e−λt dt , λ réel
R +∞
Proposition 182. Soit λ ∈ R, alors l’intégrale 0 e−λt dt est convergente si et
R +∞
seulement si λ > 0 , auquel cas, on a 0 e−λt dt = λ1 .
Rx
Preuve En effet pour tout x > 0, on a F (x) = 0 e−λt dt = λ1 (1 − e−λx ), donc F
admet une limite en +∞ si et seulement si λ > 0, auquel cas, cette limite est λ1 .
R +∞ 1
Rb 1
6.1.4.3 Les intégrales de Riemann 1 tα
dt et a (b−t)α
dt
Proposition 184. Soit f : [a, +∞[ vers K une application continue par morceaux :
S’il existe un nombre réel α > 1 tel que tRα f (t) est bornées sur un intervalle de la
+∞
forme [b, +∞[ ( b ≥ a) alors l’intégrale a f (t)dt est absolument convergente.
C’est le cas en particulier si t 7→ tα f (t) admet une limite ` (` ∈ K), quand t tends
vers +∞.
Preuve Supposons t 7→ tα f (t) bornée sur [b, +∞[, cela veut dire que |f (t)| =
O(tα ) au voisinage de +∞. D’après les critères de comparaison ci-dessus on a la
R +∞
convergence de l’intégrale b |f (t)|dt.
Si lim+∞ tα f (t) existe dans K alors t 7→ tα f (t) est bornée au voisinage de +∞.
C’est donc un cas particulier du précédent.
Pour les deux propositions qui suivent a et b sont deux nombres réels tel que a < b.
Proposition 185. Soit f : [a, b[ vers K une application continue par morceaux :
S’il existe un nombre réel α < 1 tel que (b − t)α f (t) est bornées sur un intervalle de
Rb
la forme [c, b[ ( a ≤ c < b ) alors l’intégrale a f (t)dt est absolument convergente.
C’est le cas en particulier si t 7→ (b − t)α f (t) admet une limite ` (` ∈ K), quand t
tends vers b à gauche.
Proposition 186. Soit f :]a, b] vers K une application continue par morceaux : S’il
existe un nombre réel α < 1 tel que (t − a)α f (t) est bornées sur un intervalle de
Rb
la forme ]a, c] ( a < c ≤ b ) alors l’intégrale a f (t)dt est absolument convergente.
C’est le cas en particulier si t 7→ (t − a)α f (t) admet une limite ` (` ∈ K), quand t
tends vers a à droite.
6.1.5.1 Exemples
R1 1
Exemples 1) Convergence de l’intégrale I = 0
√ . Tout d’abord l’application
x(1−x)
1
f :]0, 1[→ R, x 7→ √ est CM sur ]0, 1[. Au voisinage de 0 à droite, on a
x(1−x)
R1
f (x) ∼ √1 donc l’intégrale f (x)dx est convergente. Au voisinage de 1 à gauche,
2
x 0
1
R1
on a f (x) ∼ √1−x donc l’intégrale 1 f (x)dx converge. En conclusion, l’intégrale
2
R1
0
√ 1 dx est convergente.
x(1−x)
R1
Exemples 2) Convergence de l’intégrale 0
√ sin(1/x)2 dx. L’application f :]0, 1] →
x(1+cos x)
sin(1/x)
R; x 7→ √ est CM sur ]0, 1]. Le problème se pose uniquement au voisinage
x(1+cos2 x)
√
de 0 à droite. Pour tout x ∈]0, 1], on a : |f (x)| ≤ √1x , donc x 7→ xf (x) est bornée
R1
sur ]0, 1], d’où l’intégrale 0 √ sin(1/x)2 dx est absolument convergente.
x(1+cos x)
R +∞
Exemples 3) Convergence de l’intégrale I = 0 x4 e−x dx. L’application f : [0, +∞[→
R; x 7→ x4 e−x est continue, le problème se pose uniquement à la borne +∞.
On a : lim x2 f (x) = lim x6 e−x = 0, donc l’intégrale en question converge abso-
x→+∞ x→+∞
lument.
R +∞ 1
Exemples 4) Convergence de l’intégrale I = 0 √x+x 2 dx. L’application f :]0, +∞[→
1
R; x 7→ √x+x 2 est continue sur l’intervalle ]0, +∞[.
2 +∞
1 2t − 1
Z
1 1 3
I= − + dt
3 0 t + 1 2 t2 − t + 1 2 t2 − t + 1
On a :
+∞ +∞
1 2t − 1
Z
1 2 t+1
− dt = ln √ = 0.
0 t + 1 2 t2 − t + 1 3 t2 − t + 1 0
Donc :
Z +∞ Z +∞
1 1
I = dt = 2 dt
0 t2 − t + 1 0 t − 12 + 43
√ +∞ √
4 3 2 1 4 3 4π 4π
= arctan √ t − = = √ .
3 2 3 2 0 3 2 6 3 3
• ϕ est bijective.
• ϕ et de classe C 1 sur I.
• ϕ−1 sont est de classe C 1 sur J.
On peut démontrer que ϕ est un C 1 −difféomorphisme de I vers J si et seulement
si :
• ϕ et de classe C 1 sur I.
• ∀x ∈ I, ϕ(x) 6= 0.
Il en découle que ϕ est un C 1 −difféomorphisme de I vers J si et seulement si ϕ est
de classe C 1 sur I et ϕ0 est strictement positive ou strictement négative sur I.
où
[u(t)v(t)]ba = Lb − La = f (b−) − f (a+)
6.2.1 Rappels
Si (un )n≥0 est une suite à valeurs dans K, on lui associe la suite des sommes (Sn )n≥0
Pn
définie par Sn = uk . on dit que (Sn ) est la suite des sommes partielles de la série
P k=0
un . P
Si la suite (Sn ) est convergente de limite S, on dit que la série numérique un est
+∞
P
convergente de somme S et on note S = un .
n=0
Si (an )n≥0 est une suite numérique il existe une et une seule
P suite numérique (un )n≥0
tel que (an ) est la suite des sommes partielles de la série un . Elle est définie par :
u0 = a0 ; ∀n ∈ N∗ , un = an − an−1
n
1
P
Exemples Montrons que la suite (an )n≥1 définie par an = Hn −ln(n) où Hn = k
k=1
P
Proposition 189. Une série un à termes positifs est convergente si et seulement
si sa somme partielle (Sn ) est majorée, auquel cas on a :
+∞
X
un = sup Sn
n=0 n∈N
P
Définition
P 92. On dit qu’une série un est absolument convergente si la série
|un | est convergente.
P
Proposition 190. Si la série un est absolument convergente elle est convergente
et :
+∞
X +∞
X
un ≤ |un |
n=0 k=0
P P
Proposition 191. Soient an et bn deux séries à termes positifs. Si an ≤ bn
àPpartir d’un certain rang
P alors :
P+∞bn convergente ⇒P an convergente.
+∞
n=0 an = +∞ ⇒ n=0 bn = +∞
+∞
P +∞
P
Remarque Si an ≤ bn pour tout n ∈ N alors an ≤ bn
n=0 n=0
P P
Proposition 192. Soit un une série numérique et an une série à termes
positifs. P P
Si un = O(an ) alors :P an convergente ⇒P un est absolument convergente.
Si un = o(an ) alorsP: convergente ⇒ un est absolument convergente.
an P
Si un ∼ an alors : an et un sont de même nature.
Une série de terme général q n avec q ∈ C est appelée série géométrique de raison q.
+∞
qm
qn =
P
Remarque Si |q| < 1 alors pour tout m ∈ N, on a 1−q
n=m
1
P
Proposition 194. Soit α ∈ R. La série de Riemann nα est convergente si et
seulement si α > 1.
Proposition 195. Soit (un ) une suite de nombre complexes non nuls tel qu’il existe
` ∈ R+ tel que :
un+1
lim =`
n→+∞ un
Alors :
P
1. Si ` < 1 alors la série un est absolument convergente.
P
2. Si ` > 1 alors la série un est grossièrement divergente.
1−`
Preuve - Si ` < 1, pour ε = 2 , il existe N ∈ N tel que, pour tout n ∈ N tel que
n ≥ N + 1, on a :
un 1−`
−` <
un−1 2
En particulier :
|un | 1−` `+1
∀n ∈ N, n ≥ N + 1 ⇒ < +`=
|un−1 | 2 2
Donc en posant q = `+1 2 , on a 0 < q < 1 et pour tout n ≥ N +1, on a |un | ≤ q|un−1 |,
en particulierP: |un | ≤ |uN |q n−N = Cq n , avec C = |uN |q −N . P Comme la série
n
géométrique n≥N q est convergente, la convergence absolue de un en découle.
- Si ` > 1, on a pour ε = `−1 2 , il existe N entier tel que si n ≥ N + 1 alors
un `−1 `+1
un−1 ≥ ` − 2 = 2 , donc |un | ≥ uN q
n−N
= Cq n avec C = |uN |q −N donc un
tends vers +∞, ce qui justifie la divergence grossière de la série.
P
Définition 93. On dit que la série numérique réelle un est alternée si :
∀n ∈ N, un un+1 ≤ 0
P
Proposition 196. La série un est alternée si et seulement si il existe une suite
(αn ) de signe constant tel que un = (−1)n αn pour tout n ∈ N.
On donne le théorème suivant appelé le critère spécial des séries alternées (C.S.S.A.)
qui donne une condition suffisante de convergence d’une série alternée et une esti-
mation du reste d’ordre n :
P
Définition 94. Une série numérique Pun est dite absolument convergente si la
série des modules (ou valeurs absolues) |un | est convergente.
Théorème 31. Si une série umun est absolument convergente alors elle est conver-
gente et on a :
X+∞ +∞
X
un ≤ |un |
n=0 n=0
Preuve Pour tout nombre réel x, on définit les nombres réels x+ = max(x, 0) et
x− = max(−x, 0). On a alors
x + x− = |x|
+
∀x ∈ R
x+ − x− = x
P
Si une série un est absolument convergente alors comme on a
+
un ≤ |un |
∀n ∈ N,
u−
n ≤ |un |
P + P −
les deux série un et un sont deux séries à termes positifs convergentes, donc
−
P différence est convergente et comme unP=+∞
leur u+n − un , pour tout n ∈ N,
Pla+∞série
−
convergente et sa somme est S = n=0 un = S − S où S = n=0 u+
un estP + +
n
− +∞ −
et S = n=0 un .
• Remarquons que pour tout n ∈ N, on a :
+∞
X n
X
un ≤ |uk |,
n=0 k=0
P P
Proposition 197. Soient an et bn deux séries à termes positifs. On note Sn
et Sn les sommes partielles respectives et en cas de convergence on note Rn et Rn0
0
Rb R
b
fini), on a : x f (t)dt = o x g(t)dt.
- On suppose que f ∼ g au voisinage de b (à droite si a est fini). Alors les intégrales
Rb Rb
a f (t)dt et a g(t)dt sont de même
R x nature et
R x:
• En cas de convergence, on a : a f (t)dt ∼ a g(t)dt, au voisinage de a (à gauche
si a est fini).
Rb Rb
• En cas de divergence, on a : x f (t)dt ∼ x g(t)dt, au voisinage de a (à gauche si
a est fini).
R +∞
Exemple L’intégrale 0 | sin(t)|t dt est divergente. En effet si on prends an = nπ
pour tout n ∈ N, on a bien a0 = 0 et (an ) croissante de limite +∞. Il suffit donc
P R (n+1)π | sin(t)|
de prouver que un est divergente où un = nπ dt. Par le changement de
R π sin(θ) Rtπ sin θ
variable θ = t − nπ, on a un = 0 nπ+θ dθ, donc un ≥ 0 (n+1)π dθ = π2 n+1 1
qui est le
P
terme d’une série divergente (série harmonique), donc la série un est divergente.
P
Alors la série un est convergente.
R n+1
Preuve Comme f est décroissante,
P n f (t)dt ≤ f (n) pour tout n ≥ p, donc
un ≥ 0 et par suite la série un est une série à termes positifs. Il suffit de prouver
Pnpartielle est majorée. Soit n ≥ p, alors un ≤ f (n) − f (n + 1) par
que sa somme
suite, Sn = k=p uk ≤ f (p) − f (n + 1) ≤ f (p) ≤ f (a).
7.1 Dérivation
7.1.1 Définitions
7.1.1.1 Dérivabilité en un point
En particulier :
200
7.1. DÉRIVATION Cours deuxiéme année MP
Définition 96. Soit t0 ∈ I tel qu’il existe α > 0 tel que [t0 , t0 + α[⊂ I. On dit que
f est dérivable au point t0 à droite si t 7→ Ft0 (t) = f (t)−f
t−t0
(t0 )
admet une limite quand
0
t tends vers t0 et t > t0 . Si c’est le cas on note fd (t0 ) cette limite nommé vecteur
dérivé à droite.
Donc si h ∈ R∗ alors :
+∞
X hk−1 Ak
1
(f (t0 + h) − f (t0 )) = A exp(t0 A) + exp(t0 A)
h k!
k=2
+∞
hk−1 Ak
P
Si on pose ϕ(h) = k! , on a lim ϕ(h) = 0 car (on munit Mn (K) d’une norme
k=2 h→0
d’algèbre) :
+∞
X |h|k−1 kAkk
kϕ(h)k ≤ k exp(t0 A)k
k!
k=2
1
= k exp(t0 A)k (exp(|h|kAk) − |h|kAk − 1)
|h|
k exp(t0 A)kkAk2
∼ |h|
2
de sorte que lim ϕ(h) = 0.
h→0
Par définition de la dérivabilité, et compte tenu de
f (t0 + h) = f (t0 ) + h exp(t0 A) + hϕ(h) et lim ϕ(h) = 0,
h→0
C’est une conséquence immédiate de la propriété générale sur les limites en dimension
finie.
Définition 97. f est dérivable sur I si f est dérivable en tout point intérieur à I
et à droite(resp. gauche) des éventuelles bornes finies de I.
7.1.2 Opérations
7.1.2.1 linéarité
7.1.2.4 Composée
Définition 99. Soit n ∈ N, on dit que f est de classe C n sur I si f est n fois
dérivable sur I et f (n) est continue sur I. On dit que f est de classe C ∞ sur I si f
est de classe C n sur I, pour tout n ∈ N.
Remarques :
1. Pour tout n ∈ N, on a :
∞
D (I, F ) ⊂ Dn+1 (I, F ) ⊂ Dn (I, F )
C ∞ (I, F ) ⊂ C n+1 (I, F ) ⊂ C n (I, F )
C n (I, F ) ⊂ Dn (I, F )
D∞ (I, F ) = C ∞ (I, F ) =
T n T n
D (I, F ) = C (I, F )
n∈N n∈N
Si f : t 7→ f (t) est la loi horaire d’un mouvement sur F dans l’intervalle de temps
I alors si f est deux fois dérivable au point t0 ∈ I, le vecteur f 00 (t0 ) est le vecteur
acceleration à l’instant t0 .
7.1.3.3 Composition
7.2 Intégrales
Dans tout ce qui suit F est un espace vectoriel de dimension finie non nulle et [a, b]
est un segment de R.
Définition 100. Soit f : [a, b] → F une application. On dit que f est continue par
morceaux sur [a, b] si les fonctions coordonnées f1 , · · · , fp de f relativement à une
base B = (e1 , · · · , ep ) sont continues par morceaux sur [a, b].
f relativement à B b alors :
p
X p
X
f= fk e k = fbk ebk
k=1 k=1
et
f1 (t) fb1 (t)
(1) ∀t ∈ I, ... = P
..
.
fp (t) fbp (t)
Montre que les fk sont CM sur [a, b] si et seulement si les fbk le sont.
Remarques :
1. On note CM([a, b], F ) l’ensemble des fonctions continues par morceaux de [a, b]
vers F . C’est un sous-espace vectoriel du K−espace vectoriel F [a,b] des applica-
tions de [a, b] vers F .
2. Si I est un intervalle quelconque de R, une application f : I → F est continue
par morceaux sur I si f est continue par morceaux sur tout segment contenu
dans I. On note CM(I, F ) le sous-espace vectoriel de telles applications.
Le (1) ci dessus montre que l’on a :
Rb Rb
f1 (t) f1 (t)
b
a .. a ..
. =P .
Rb Rb
a fp (t) a fp (t)
b
et par suite :
p Z
X b p Z b
X
fk (t)dt ek = fbk (t)dt ebk
k=1 a k=1 a
R Rb Rb
Notation : On note [a,b] f ou a f ou a f (t)dt
Preuve Il suffit de raisonner sur les fonctions coordonnées relativement à une base
de F .
Pn−1 Pn
Remarque : Valable si on remplace k=0 par k=1
Rb Rb
Proposition 213. Soit f ∈ CM([a, b], F ), alors : a f ≤ a kf k
Proposition 214. si (fk )1≤k≤p sont les composantes de f dans une base B =
p
P
(e1 , . . . , ep ), donc : f = fk ek , et Φk une primitive de fk sur I, pour tout k ∈ [[1, p]]
k=1
p
P
alors Φ = Φk ek est une primitive de f sur I.
k=1
p p
Φk ek , on sait que : Φ0 = Φ0k ek et comme Φ0k = fk ,
P P
Preuve En posant Φ =
k=1 k=1
p
on a Φ0 =
P
fk e k = f .
k=1
M = sup kf 0 (t)k
t∈[a,b]
Alors
kf (b) − f (a)k ≤ M (b − a)
Rb
Preuve Comme f est de classe C 1 sur [a, b], on a f (b) − f (a) = a f 0 (t)dt, donc :
Rb Rb Rb
kf (b) − f (a)k = k a f 0 (t)dtk ≤ a kf 0 (t)kdt ≤ a M dt = M (b − a).
Remarques :
1. Si M est un majorant de kf 0 k([a, b]) , l’inégalité est valable.
2. Si f : I → F de classe C 1 et f 0 est bornée sur I alors on a :
Théorème 36. Soit f : I → F de classe C n+1 . Si f (n+1) est bornée sur I alors
alors :
n
2
X (b − a)k (k) |b − a|n+1
∀(a, b) ∈ I f (b) − f (a) ≤ sup kf (n+t) (t)k
k! (n + 1)! t∈I
k=0
7.2.8.3 Taylor-Young
Remarque : On écrit :
n
X (x − a)k
f (x) = f (k) (a) + o((x − a)n )
k!
k=0
Séries dans
un espace vectoriel normé,
familles sommables
de nombres complexes.
E = {f (n)/n ∈ N}.
214
8.1. ENSEMBLES DÉNOMBRABLES Cours deuxiéme année MP
Preuve
• N et dénombrable puisque l’application identique de N est une bijection de N
vers N.
n
• Z est dénombrable, en effet, soit f : N → Z; n 7→ 2 + 1 si n ∈ 2N .
− n−12 si n ∈ 2N + 1
C’est bien une application. Elle est injective car si n, m ∈ N tel que f (n) = f (m)
alors si f (n) ∈ N∗ forcément n et m sont pairs et alors n2 + 1 = m2 + 1 et n = m.
Si, par ailleurs, f (n) ∈ Z) alors n et m sont impairs et n−1 m−1
2 = 2 , donc m = n.
f est surjective car si k ∈ Z, deux cas sont possibles :
- Si k > 0 alors 2(k − 1) ∈ N et f (2(k − 1)) = k.
- Si k ≤ 0 alors −2k + 1 ∈ N et f (−2k + 1) = k
• Soit A une partie infinie de N. Posons
f (0) = min(A)
.
∀n ∈ N , f (n + 1) = min(A\{f (0), · · · , f (n)})
f est bien définie puisque toute partie non vide de N admet un plus petit élément.
- L’application f est injective car , par construction, elle est strictement croissante.
- L’application f est surjective car si a ∈ A, deux cas sont possibles :
• Si a = f (0) terminé.
• Si a 6= f (0) alors a > f (0). Soit
Définition 103. Soit a = (ai )i∈I une famille de nombres réels positifs , I étant
non vide au plus dénombrable. On dit que la famille a est sommable si l’ensemble
( )
X
Xa = ai /J ∈ Pf? (I)
i∈J
Remarque :
i la famille de nombres réels positifs (ai )i∈I n’est pas sommable, on convient de poser :
X
ai = +∞
i∈I
Proposition 221. Si a = (ai )∈I et b = (bi )i∈I sont deux familles de nombres réels
positifs tel que :
∀i ∈ I, ai ≤ bi
alors :
P P
1. b sommable ⇒ a sommable et ai ≤ bi
i∈I i∈I
2. a non sommable ⇒ b non sommable.
Théorème 38. Soit σ : I → I une bijection et a = (ai )i∈I une famille de nombres
réels positifs et aσ = (aσ(i) )i∈I . Alors a est sommable si et seulement si aσ est
sommable, auquel cas, on a :
X X
ai = aσ(i)
i∈I i∈I
Preuve Supposons que a = (ai )i∈I est une famille sommable de somme S et soit
σ une permutation de I,et notons aσ = (aσ(i) )i∈I . Si J est une partie finie de I,
alors J 0 = σ(J) est une partie finie de I de même cardinal que J, de plus on a :
X X
(?) ak = aσ(j)
k∈J 0 j∈J
Théorème 39. Soit (ai )i∈I une famille de nombres réels positifs.
1. Si la famille (ai )i∈I est sommable alors, pour tout (Ij )j∈J , partition au plus
dénombrable de I (c’est-à-dire J ensemble au plus dénombrable) on a :
(a) Pour tout j ∈ J, la famille (ai )i∈Ij est sommable.
P
(b) Si, pour tout j ∈ J, on note : Sj = ai , alors la famille (Sj )j∈J est
i∈Ij
P P
sommable et on a : ai = Sj
i∈I j∈J
2. S’il existe une partition au plus dénombrable (Ij )j∈J de I tel que :
(a) Pour tout j ∈ J, la famille (ai )i∈Ij est sommable.
P
(b) Si, pour tout j ∈ J, on note : Sj = ai , la famille (Sj )j∈J est sommable
i∈Ij
P P
alors la famille (ai )i∈I est sommable et on a : ai = Sj
i∈I j∈J
Remarque Soit aP= (ai )i∈I une famille de nombres réels positifs. En tenant compte
de la convention ai = +∞ si la famille a n’est pas sommable on peut énoncer
i∈I
que :
pour tout (Ij )j∈J , partition au plus P P de I , si pour tout j ∈ J, la famille
Pdénombrable
(xi )i∈J est sommable alors on a : ai = ai
i∈I j∈J i∈Ij
1. Soit a = (an ) une famille de nombres réels alors la famille a est sommable si et
seulement si les familles a+ = ((ai )+ )i∈I et a− = ((ai )− )i∈I sont sommables.
2. Soit z = (zj )j∈I une famille de nombres complexes, alors la famille z est som-
mables si et seulement si les familles Re(z) = (Re(z P j ))j∈I etPI m(z) =
(I m(zj ))j∈I sont sommables, auquel cas, on a : zj = Re(zj ) +
j∈I j∈I
i I m(zj )
P
j∈I
Définition 105. Si x = (xi )i∈I est une famille sommable de nombre réels, on définit
la somme de x comme suit : S = S+ − S− où S+ et S− sont les sommes respectives
de x+ et x− .
Autrement dit : X X X
xi = (xi )+ − (xi )−
i∈I i∈I i∈I
P
Proposition 225. La famille (zn ) est sommable si et seulement si la série zn est
P +∞
P
absolument convergente auquel cas, elle est convergente et on a zn = zn
n∈N n=0
Théorème 41. Soit a = (aij )(i,j)∈N2 une suite double sommable de nombres réels
positifs. Alors : Pour tout i ∈ N, la famille (aij )j∈N est sommable. Si, pour tout
+∞
P P +∞
P
j ∈ N, Sj = aij , la famille (Sj )j∈N est sommable et aij = Sj
i=0 (i,j)∈N2 j=0
Théorème 42. Soit (aij une suite double de réels positifs. Si pour tout i ∈ N, la
+∞
P
famille (aij )j∈N est sommable et si, pour tout i ∈ N, Si = aij , la famille (Si )i∈N
j=0
P +∞
P
est sommable, alors la famille (aij )(i,j)∈N2 est sommable et aij = Si
(i,j)∈N2 i=0
Remarque Les théorèmes ci-dessus restent valables si on interverti les rôles des
indices i et j.
Proposition 227. Soit (aij )(i,j)∈N2 une suite double sommable, alors :
— Pour tout i ∈ N, la famille (aij )j∈N est sommable.
— Pour tout j ∈ N, la famille (aij )i∈N est sommable.
— Si on pose X
Si = aij ,
j∈N
pour tout i ∈ N et X
Tj = aij ,
i∈N
pour tout j ∈ N alors les familles (Si )i∈N et (Tj )j∈N sont sommables et :
X +∞
X +∞
X
aij = Si = Tj .
(i,j)∈N2 i=0 j=0
Proposition 228. Soit (aij )j∈N une suite double tel que :
— Pour tout i ∈ N, la famille (aij )j∈N est sommable.
— En notant, pour tout i ∈ N,
+∞
X
Sei = |aij |,
j=0
P P
Théorème 43. Si les série a = an et b = bn sont absolument convergentes
alors :
1. La série c est absolument convergente.
2. La famille u est sommable.
+∞
P +∞
P +∞
P P
3. Si on note A = an ; B = bn ; C = cn et S = ak b` . alors
n=0 n=0 n=0 (k,`)∈N2
AB = C = S.
n
Preuve - La série c est absolument convergente car si Cn0 = |ck | alors Cn0 ≤
P
k=0
+∞ +∞
A0 B 0 où A0 = |an | ; B 0 =
P P
|bn |, en effet :
n=0 n=0
n X
X k
Cn0 = aj bk−j
k=0 j=0
n X
X k
≤ |aj ||bk−j |
k=0 j=0
n X n n
! n
!
X X X
≤ |aj ||bk | = |aj | |bk |
k=0 j=0 j=0 k=0
+∞
! +∞
!
X X
≤ |aj | |bk | = A0 B 0
j=0 k=0
8.3.1 Généralités
8.3.1.1 Définition, exemples
n
P
Définition 106. Soit (un ) une suite à valeurs dans E. La suite (Sn ) où Sn = uk
P k=0
pour tout n ∈ N s’appelle la série de terme général un , notée : un .
P une suite (un )n≥p avec p un entier naturel, la série associée peut se noter :
1. Pour
n≥p un .
2. Si (an )n∈N ∈ E N est une suite, il existe une etPune seule suite (un )n∈N tel que
an est la somme partielle d’ordre n de la série un . C’est la suite définie par :
u0 = a0
∀n ∈ N∗ , un = an − an−1
Exemples : Dans Mn (K) , si A est une matrice fixée, on dispose des séries :
P An
1. La série , appelée série exponentielle.
P n!n
2. La série A appelée série de Neuman.
Proposition 229. L’ensemble des séries à valeurs dans E muni des lois + et .
ci-dessus est un K − espace vectoriel.
8.3.2 Convergence
P
Définition 107. La série un est convergente si la suite (Sn ) des sommes partielles
est convergente. Si c’est le cas S = lim(Sn ) s’appelle la somme de la série et on
+∞
P
note : S = un .
n=0
P
Proposition 231. Si la série un est convergente alors son terme général converge
vers 0. C’est-à-dire lim(un ) = 0.
P
Si un est une série tel quePla suite (un ) est divergente ou tends vers une limite
non nulle on dit que la série un est grossièrement divergente.
P
Définition 108. Si un est une série convergente de somme S ; pour tout nP∈ N,
on pose Rn = S − Sn . Rn s’appelle le reste d’ordre n de la série convergente un .
P +∞
P
Proposition 232. Si la série un est convergente alors Rn = uk et Rn
k=n+1
tends vers 0 quand n tends vers +∞.
P
DéfinitionP109. On dit qu’une série un est absolument convergente si la série
numérique kun k est convergente.
1 1
Exemple : Dans M2 (R), muni de la norme euclidienne, soit A = − 13
;
1 1
A est absolument convergente. En effet on a A = − 31 J où J =
P n
alors la série
1 1
, donc An = 12 (−2/3)n J de sorte que kAn k = (2/3)n k1/2Jk et comme la
1 1
série géométrique (2/3)n est convergente, on a l’absolue convergence recherchée.
P
P
Théorème 44. Si un est absolument convergente elle est convergente et
+∞
X +∞
X
un ≤ kun k
n=0 n=0
Attention : On rappelle que E est de dimension finie. Ce résultat n’est pas toujours
vrai en dimension infinie.
Soit A P une algèbre normée de dimension finie dont l’unité est notée 1A . Si a ∈ A ,
la série an est appelée série de Neumann.
n +∞
ak et S = ak , alors :
P P
2. Pour tout n ∈ N, posons Sn =
k=0 k=0
(1A − a)Sn = Sn − Sn a
Xn Xn
k
= a − ak+1
k=0 k=0
Xn n+1
X
= ak − ak
k=0 k=1
0 n+1
= a −a
= 1A − an+1
Remarque La condition kak < 1 n’est qu’une condition suffisante pour la conver-
gence de la série de Neumann ; en effet, si par exemple A = Mm (K); m ∈ N; m ≥ 2
et on considère la matrice E12 dont tous les coefficients sont nuls sauf celui de la ligne
1 et la colonne 2, lequel valant 1 et soit p ∈ N et AP p = pE12 ; alors kAp k = p kE12 k
n’est pas bornée, cependant la série de Neumann Anp est convergente puisque la
matrice Ap est nilpotente.
P an
Théorème 46. Pour tout a ∈ A , la série exponentielle n! est absolument
convergente. Sa somme est notée ea ou exp(a).
Preuve En effet puisque A est une algèbre normée, alors pour tout n ∈ N∗ , on
n
an
≤ k1A k kak ak
Pn
a: n! n! . Donc si Sn = k=0 k! , alors :
n n
X ak X ak
Sn ≤ k1A k + ≤ k1A k + k1A k ≤ k1A k Tn
k! k!
k=1 k=1
où n
X kakk
Tn = .
k!
k=0
P an
Or lim Tn = ekak , donc la série exponentielle n! est absolument convergente
n→+∞
n
ak
P
Preuve Soit n ∈ N et Sn = k! la somme partielle de la série exponentielle.
k=0
Par l’inégalité triangulaire et la sous-multiplicativité de la norme, on a :
kSn k ≤ k1A k Tn
où : n
X kakk
Tn =
k!
k=0
P kakk
est la n ème somme partielle de la série k! . Par passage à la limite, on a
l’inégalité désirée.
k1A k = 1
alors on a :
∀a ∈ A , kea k ≤ ekak
+∞
an
P
Preuve On sait que exp(a) = n! . Notons Sn (a) la somme partielle d’ordre n
n=0
de cette série. Alors :
X ai b j
Sn (a)Sn (b) =
2
i!j!
(i,j)∈[[0,n]]
et
n n X i
(a + b)i X ak b j
X X 1 i i−j j
Sn (a + b) = = a b =
i=0
i! i=0 j=0
i! j k!j!
(k,j)∈V
où
V = {(k, j) ∈ [[1, n]]2 /k + j ≤ n}
Soit
U = [[1, n]]2 \V
Alors :
X aj b k
kSn (a)Sn (b) − Sn (a + b)k =
j!k!
(j,k)∈U
X kakj kbkk
≤ k1A k
j!k!
(j,k)∈U
= k1A k (Sn (kak)Sn (kbk) − Sn (kak + kbk))
Proposition 236. On a :
1. Si D = diag(λ1 , · · · , λm ) est une matrice diagonale alors eD =
diag(eλ1 , · · · , eλm )
2. Si T est une matrice triangulaire supérieure de termes diagonaux λ1 , · · · , λm
alors eT est une matrice triangulaire supérieure de termes diagonaux
eλ1 , · · · , eλm
3. Si A est une matrice diagonalisable alors eA est diagonalisable ; si A = P DP −1
avec D matrice diagonale et P matrice inversible alors eA = P eD P −1 .
4. Si A est une matrice trigonalisable alors eA est trigonalisable ; si A = P T P −1
avec T matrice triangulaire supérieure et P matrice inversible alors eA =
P eT P −1 .
233
9.1. MODES DE CONVERGENCE Cours deuxiéme année MP
3. Si (fn ) converge uniformément vers f sur A elle converge simplement vers f sur
A.
4. Soit B une partie non vide de A. Si (fn ) converge simplement (resp. uniformé-
ment) vers f sur A alors (fn ) converge simplement(resp.uniformément) sur B
vers f restreinte à B.
Exemples Dans chaque exemple, on donne E, X, la suite de fonctions (fn ). On
donnera des exemples de parties de X sur lesquelles il y’a convergence simple et des
exemples de telles parties sur lesquelles il y’a convergence uniforme.
2
nx +n
1. X = R, E = R et pour tout n ∈ N ,fn (x) = n+x+1 . On voit tout de suite que
pour tout n ∈ N, l’ensemble de définition de la fonction fn est Dn = R\{−n−1}
de sorte que pour que fn (x) existe pour tout n ∈ N, il faut et suffit que
\
x∈D= Dn = R\Z∗− .
n∈N
• Convergence simple :
Soit donc x ∈ D.
n
- Si x = 0, on a fn (0) = n+1 donc lim fn (0) = 1.
n→+∞
2
- Si x 6= 0 alors lim fn (x) = x + 1
n→+∞
Il en découle que fn converge simplement sur D vers f définie par f (x) = x2 +1.
Si (fn ) est une suite de fonctions de X vers E, on dispose de la suite (Sn ) définie
Pn
par Sn = fk . On définit la convergence simple et uniforme de la série de fonctions
P k=0
fn comme suit :
P
Définition 112. On dit que la série de fonctions fn converge simplement vers f
sur une partie A de X si la suite de fonctions (Sn ) converge simplement vers f sur
A. P
On dit que la série de fonctions fn converge uniformément vers f sur A si la suite
(Sn ) converge uniformément vers f sur A.
P
Proposition 237. Si fn converge simplement vers f alors la suite de fonctions
(fn ) converge simplement vers θ la fonction nulle.
P
Proposition 238. Si la série fn converge simplement sur A vers f alors en
+∞
P
posant pour tout n ∈ N : Rn (x) = fk (x), Rn est bien définie et la suite de
k=n+1
fonctions (Rn ) converge simplement sur A vers la fonction nulle θ.
P
Proposition 239. Si fn converge uniformément sur A vers f alors la suite de
fonctions (fn ) converge uniformément sur A vers θ la fonction nulle.
P
Proposition 240. Si la série fn converge simplement sur A vers f alors la
convergence est uniforme sur A si et seulement si la suite de fonctions (Rn ) converge
uniformément sur A vers la fonction nulle θ.
P
Définition 113. On dit que la série dePfonctions fn converge absolument sur A
si pour tout x ∈ A la série numérique kfn (x)k converge.
P
Proposition 241. Si la série de fonctions fn converge absolument sur A alors
elle converge simplement sur A vers une application f : A → E.
P
Définition 114. On dit que la série de fonctions fn converge normalement
P sur
A si fn est bornée sur A pour tout n ∈ N et si en plus la série numérique kfn k∞,A
est convergente.
P
Proposition 242. Si la série de fonctions fn est normalement convergente sur
A alors elle est simplement convergente sur A vers une application f : A → E et la
convergence est uniformeP sur A.
Si la série de fonctions fn est normalement convergente elle est absolument conver-
gente.
∀x ∈ A, kfn k ≤ αn
où (αPn ) est une suite à termes positifs, indépendante des éléments x de A tel que la
série αn est convergente.
Théorème 47. E et F sont des espaces vectoriels normés des dimensions finies.
Soit X une partie non vide de E et a un point adhérent à X. On considère une suite
d’application (fn ) de X vers F tel que :
• La suite (fn ) converge uniformément vers une application f : X → E.
• pour tout n ∈ N, `n = lim fn existe dans F .
x→a
Alors la suite (`n ) est convergente et lim `n = lim f (x). Autrement dit :
n→+∞ x→a
Preuve On va démontrer que la suite (`n ) est une suite de Cauchy, ce qui permet-
tra de conclure qu’elle converge car F est de dimension finie, donc complet. Puisque
(fn ) converge uniformément vers f , alors en posant αn = supx∈X kfn (x) − f (x)k,
pour tout n ∈ N, la suite réelle (αn ) converge vers 0 donc c’est une suite de Cauchy
dans R, donc :
(∀ε > 0)(∃N ∈ N)(∀x ∈ X) kfp (x) − fq (x)k < ε/2
Par passage à al limite quand x → a il vient :
(∀ε > 0)(∃N ∈ N) k`p − `q k ≤ ε/2 < ε
Donc la suite (`n ) est de Cauchy dans F , donc elle converge vers ` ∈ F .
CVU
Démontrons maintenant que lim f (x) = `. Pour cela soit ε > 0. Comme fn −→ f
x→a
sur X, on a :
(1) (∃N1 ∈ N)(∀n ≥ N1 )(∀x ∈ X) kfn (x) − f (x)k < ε/3
et comme lim `n = `, on a :
n→+∞
Par suite :
2ε ε
(∃η > 0)(∀x ∈ X) kx − ak < η ⇒ kf (x) − `k < + =ε
3 3
ce qui prouve que : lim f (x) = `.
x→a
9.2.1.2 Exemple
x nx
Considérons pour tout n ∈ N∗ , l’application : fn : R∗+ → R tel que fn (x) =
n
CVS
alors on a fn −→ θ sur R∗+ où θ est la restriction à R∗+ de l’application nulle de R vers
R, mais la convergence n’est pas uniforme. En effet, pour la convergence simple il
x ln x
suffit de voir que ln(fn (x)) = n ln n ln n − x −→ −∞, ce qui donne fn (x) −→
n→+∞ n→+∞
∗
0. La convergence n’est pas uniforme car pour tout n ∈ N , on a lim fn (x) = 1
x→0+
puisque ln fn (x) = n(x ln x) − (n ln n)x −→+ 0 puisque lim0+ x ln x = lim 0+ x = 0.
x→0
Si la convergence était uniforme on aurait d’après le théorème d’interversion des
limites : lim θ(x) = 1 , ce qui n’est pas le cas.
CVU
Théorème 48. Si (fn ) −→ f sur X et limx→+∞ fn (x) = `n ∈ F alors la suite
(`n ) converge vers ` ∈ F et limx→+∞ f (x) = `.
Remarque Dans cet exemple on a la convergence uniforme sur tout segment [a, b] ⊂
R∗+ , pourtant cela ne suffit pas pour intervertir les limites. En effet si x ∈ [a, b] tel
que 0 < a < b < +∞ alors pour tout n ≥ N = [b] + 1, il est aisé de vérifier que :
x
b
fn (x) = exp nx ln ≤ exp na ln −→ 0
n n n→+∞
Théorème 49. E et F sont des espaces vectoriels normés des dimensions finies.
Soit X une partie non vide de E et a un point adhérent à X. On considère une série
d’application
P (fn ) de X vers F tel que :
• La série P f : X → F.
fn converge uniformément sur X vers une application
• pour tout n ∈ N, `n = lim fn existe dans F . Alors la série ( `n ) est convergente
x→a
+∞
P
dans F et : `n = lim f (x). Autrement dit :
n=0 x→a
+∞ +∞
!
X X
lim fn = lim fn .
x→a x→a
n=0 n=0
9.2.2 Continuité
Une conséquence immédiate de l’interversion des limites est le cas particulier où
a ∈ X et on a la continuité des fn
Proposition 243. k.k∞,X ainsi définie est une norme sur B(X, F ). De plus pour
toute suite (fn ) ∈ (B(X, F ))N , et tout f ∈ B(X, F ), on a : La suite (fn ) converge
uniformément vers f sur X si et seulement si la suite (fn ) converge vers f dans
l’espace vectoriel normé (B(X, F ), k.k∞,X ).
Proposition 244. Si X est une partie non vide d’un espace vectoriel normé E,
alors Cb (X, F ) l’ensemble des applications de X vers F continues et bornées sur X
est un sous-espace vectoriel fermé de B(X, F ).
Remarques On fait des les remarques suivantes concernant un cas particulier pour
X:
1. Si X est une partie compacte non vide de E alors Cb (X, F ) = C(X, F ).
2. Nous allons donner ci-dessous la théorème d’approximation de Weierstrass dans
le cas où E = R,F = K et X = [a, b] est un segment de R.
Soit (a, b) ∈ R2 tel que a < b. On rappelle que C 0 ([a, b], K) est l’espace vectoriel des
applications continues de [a, b] vers K. On le munit des trois normes classiques :
1. La norme de la convergence uniforme k.k∞ définie par :
Ces trois normes ne sont pas équivalentes mais il y’ a des relations entre elles précisées
par la proposition suivante :
Si une fonction f est continue sur un segment [a, b], on peut l’approcher par une
fonction polynomiale sur [a, b] au sens de la convergence uniforme comme le précise
le théorème suivant :
Preuve On peut démontrer ce théorème par plusieurs méthodes dont les plus
célèbres sont : celle qui utilise les polynômes dits de Bernestein, ou celle qui utilise
une méthode probabiliste. Pour plus de détails voir le devoir e libre 5 et l’épreuve
de math 1 du C.N.C. 2016 qui comporte dans le détail les deux méthodes.
Théorème 53. Pour toute fonction f continue par morceaux de [a, b] vers K, il
existe une suite (ϕn ) de fonctions en escaliers de [a, b] vers K qui converge unifor-
mément sur [a, b] vers f .
Ce théorème traduit aussi le fait que dans l’espace normé (B([a, b], K), k.k∞ ), l’espace
E([a, b], K) est dense dans CM([a, b], K).
Proposition 246. Soit (fn : [a, b] → F )n une suite de fonction continues par
morceaux sur le segment [a, b] tel que (fn ) converge uniformément sur [a, b] vers une
fonction f continue par morceaux sur [a, b]. Alors :
Z b Z b Z b
lim fn (t)dt = f (t)dt = lim fn (t) dt
n→+∞ a a a n→+∞
Remarque Il faut faire attention à la vérification du fait que f est continue par
morceaux car la limite uniforme d’une suite de fonctions continues par morceaux
n’est pas forcément continue par morceaux.
Proposition 247. Soit (fn : [a, b] → F )nPune suite de fonction continues par
morceaux sur le segment [a, b] tel que la série fn converge uniformément sur [a, b]
vers une fonction f continue par morceaux sur [a, b]. Alors :
Z b Z bX +∞ +∞ Z b
X
f (t)dt = fn (t)dt = fn (t) dt
a a n=0 n=0 a
245
10.1. CONVERGENCE UNIFORME ET INTÉGRATION Cours deuxiéme année MP
Théorème 54. Soit I un intervalle non trivial de R et (fn : I → K)n une suite
d’applications continues par morceaux tel que :
1. La suite de fonctions (fn ) converge simplement vers une fonction f : I → K
continue par morceaux sur I.
2. Il existe une application ϕ : I → R continue par morceaux intégrable sur I tel
que :
∀n ∈ N, |fn | ≤ ϕ; (hypothèse de domination)
Alors :
1. les fn et f sont intégrables sur I.
R R R
2. lim I fn = I f = I lim fn .
n→+∞
Théorème 55. Soit (fn : I → K)n une suite de fonctions de l’intervalle I vers K
tel que :
P
1. La série de fonctions fn converge simplement sur I vers une application
f : I → K continue par morceaux sur I.
2. Pour tout n ∈ N, l’application fn est continue par morceaux sur I et fn est
intégrable sur I.
PR
3. La série numérique I |fn | est convergente.
Alors :
1. La fonction f est intégrable sur I.
R +∞
PR
2. On a : I f (t)dt = I fn (t)dt. Autrement dit :
n=0
Z +∞
! +∞ Z
X X
fn (t) dt = fn (t)dt
I n=0 n=0 I
10.2 Dérivation
10.2.1 Théorème pour les fonctions de classe C 1
Proposition 248. Soit I un intervalle non trivial de R et (fn ) une suite d’applica-
tions de I vers F tel que :
1. Pour tout n ∈ N, la fonction fn est de classe C 1 sur I ;
2. La suite (fn ) converge simplement sur I vers une application f : I → F .
3. La suite de fonctions (fn0 ) converge simplement vers une application g : I → F
et la convergence est uniforme sur tout segment contenu dans I
Alors :
1. La fonction f est de classe C 1 sur l’intervalle I.
0
2. f 0 = g, c’est-à-dire : lim fn = lim fn0 .
n→+∞ n→+∞
Proposition 249. Soit I un intervalle non trivial de R et (fn ) une suite d’applica-
tions de I vers F tel que :
1. Pour tout n ∈ N, la fonction fn est de classe C 1 sur I ;
P
2. La série de fonctions fn converge simplement sur I vers une application
f : I → F.
3. La suite de fonctions fn0 converge simplement vers une application g : I → F
P
Alors :
1. f = f0 est de classe C k sur I.
2. f (k) = g. Autrement dit :
(k)
lim fn = lim (fn )(k) .
n→+∞ n→+∞
Alors :
1. f = f0 est de classe C k sur I.
2. f (k) = g. Autrement dit :
+∞
!(k) +∞
X X
fn = (fn )(k) .
n=0 n=0
∀(x, t) ∈ A × I,
|f (x, t)| ≤ ϕ(t) (hypothèse de domination)
R
Alors : la fonction F : A → K; x 7→ F (x) = I f (x, t)dt est bien définie et continue
sur A.
10.3.1.2 Exemples
10.3.2 Dérivabilité
10.3.2.1 Dérivées partielles
(k) ∂kf
ϕA (a) = (a, b)
∂xk
- L’application : ψA : y 7→ f (a, y) de J vers K est une fonction d’une variable réelle
définie sur J.
(k) ∂kf
ψA (b) = (a, b)
∂y k
Alors :
R
1. L’application F : x 7→ I f (x, t)dt est de classe C 1 sur l’intervalle J.
2. Pour tout x ∈ J, on a (Formule de Leibniz) :
Z
∂f
F 0 (x) = (x, t)dt
I ∂x
Remarque Si (Jk )k∈K est une famille d’intervalles de R tel que ∪ Int(Jk ) = J
k∈K
(où Int(Jk ) désigne l’intérieur de Jk ), et si on remplace la condition (3) ci-dessus par
la condition (3)’ suivante : Pour tout k ∈ K, il existe une application ψk , CM sur
et intégrable sur I tel que :
∂f
∀(x, t) ∈ Jk × I, (x, t) ≤ ψk (t)
∂x
alors la conclusion reste la même.
Alors :
R
1. F : J → K; x 7→ I f (x, t)dt est de classe C k sur J.
2. On a la formule de Leibniz :
∂kf
Z
(k)
∀x ∈ J, F (x) = (x, t)dt
I ∂xk
Séries entières
Dans tout ce chapitre K désigne l’un de corps R, le corps des réels ou C, le corps
des nombres complexes.
P
Définition 115. On appelle série entière toute série fn de fonctions définies de
n
K dans K par fn (t) = an t où (an )n est une suite d’éléments de K.
Lemme P4. (d’Abel) Si ρ ∈]0, +∞[ tel que (an ρn )n≥0 est bornée alors la série entière
entière an tn converge absolument sur ∆ρ = {t ∈ K/|t| < ρ}.
253
11.1. DÉFINITIONS : SÉRIES ENTIÈRES, CONVERGENCE Cours deuxiéme année MP
K. L’ensemble
Xa = {r ∈ R+ /(an rn )n est bornée}
est une partie non vide de R+ . On note Ra la borne supérieure de Xa si Xa est
majorée et Ra = +∞ P si nXa n’est pas majorée. Ra s’appelle le rayon de convergence
de la série entière an t .
Exemples Voici trois exemples correspondant aux cas où R est nul, strictement
positifs, puis infini :
1. Le rayon de convergence de la série entière n≥0 nn z n est R = 0
P
Preuve P n
• Supposons que R est le rayon de convergence de la série entière P an t . Si R = 0
alors la suite (an tn ) est non bornée pour tout t 6= 0 donc la série an tn diverge
P n|t| < 0 est fausse pour tout t ∈ K, d’où
grossièrement. Par ailleurs l’assertion
la vérité de |t| < 0 ⇒ la série an t converge absolument. Si R = +∞ Palorsn
l’assertion |t| > R est fausse pour tout t ∈ K, donc |t| > R ⇒ la série an t
diverge grossièrement est vraie. Par ailleurs si |t| < R alors en prenant
P n r = |t| + 1,
n
on a la suite (an r ) est bornée et par le lemme d’Abel la série an t CVA.
R+|t|
Si R > 0 , soit t ∈ K. Posons : r = 2 .
< R alors |t| < r < R la suite (an rn ) est bornée et par le lemme d’Abel, la
Si |t| P
série an tn CVA.
Si |t| > R alors R < r < |t|, donc la suite (an rn ) est non bornée , et comme |an rn | ≤
On suppose que les coefficients an sont non nuls à partir d’un certain rang. Si
an+1
lim = ` ∈ R+ ∪ {+∞}
n→∞ an
alors
1
R=
`
avec R = +∞ si ` = 0 et R = 0 si ` = +∞.
Preuve Si par exemple RaP< Rb , soit r est un nombre réel tel que r > P Ra .. Si
n
Ra < r < Rb alors la série an r est grossièrement divergente et la série bn rn
est absolument convergente, donc la série somme est divergente. Ainsi Ra+b ≤ Ra
donc Ra+b = Ra
Remarque Il ne faut pas croire que la règle de D’Alembert est valable pour toutes
les séries entières. Voici deux exemples où la règle n’est pas valable ou nécessite une
P n
Proposition 254. P n an t est une série entière de rayon de convergence R >
Si
0 alors la série an t converge normalement sur tout compact contenu dans le
disque(intervalle) ouvert de convergence de la série entière.
P∞ n
Proposition 255. La somme S : t 7→ f (t) = n=0 an t est continue sur le disque
ouvert de convergence.
Preuve Soit t0 ∈ ∆R et r > 0 tel que |z0 | < r < R. Alors n an tn converge
P
normalement sur ∆r donc, t 7→ an tn étant continue pour tout entier n sur ∆r , sa
somme l’est aussi d’où f est continue sur ∆r et donc en particulier en z0 .
an tn , la série entière
P
Définition 117. On appelle série dérivée d’une série entière
(n + 1)an+1 tn .
P
P n
Proposition 257. Soit an t une série entière à coefficients dans K de rayon de
convergence R > 0 et de somme f . Notons aussi f la restriction de f à l’intervalle
ouvert ] − R, R[. Alors :
1. f est indéfiniment dérivable sur ] − R; R[ et :
+∞
f (k) (t) X n
∀t ∈] − R; R[, = an tn−k
k! k
n=k
2. Si [a, b] ⊂] − R, R[ alors :
Z b +∞
X Z b
f (t)dt = an tn+1 dt
a n=0 a
R > 0 et R0 > 0. On suppose que les sommes de ces deux séries coïncident sur un
voisinage de 0. Alors ces deux séries sont identiques : ∀n ∈ N an = bn .
P n
Conséquences : La somme f de la série entière an t est une fonction paire
(resp. impaire) si et seulement si les an de rang impair (resp. pair) sont nuls.
Définition 118. Soit f une application définie sur un intervalle ouvert ]−a, a[, a > 0
de R et à valeurs dans K. On P dit que f est développable en série entière en un point
0 s’il existe une série entière an tn de rayon de convergence R > 0 et et un réel
ρ ∈]0, min(R, a)[ tels que :
+∞
X
∀t ∈] − ρ, ρ[, f (t) = an tn
n=0
donc n
X f (k) (0) M
∀t ∈] − ρ; ρ[ |f (t) − tk | ≤ (2ρ)n+1
k! (n + 1)!
k=0
ce qui montre que lorsque n tend vers +∞ la série de Taylor de f converge vers f
pour tout t dans ] − ρ; ρ[ et par suite dans ] − r; r[.
x2n+1
P+∞
sinh x = n=0 (2n+1)! ; R = +∞
P+∞ α
α
1 si n = 0
(1 + x)α = xn , R = 1 où
n=0 n = n α(α−1)···(α−n+1)
n! si n ≥ 1
1
P+∞ n
1−z = n=0 z ; R = 1
1
P +∞ n n
1+z = n=0 (−1) z ;R = 1
n−1 xn
P+∞
ln(1 + x) = P n=1 (−1) n ;R = 1
+∞ xn
ln(1 − x)
P= − n=1 n ; R = 1
1 +∞ n 2n
1+x2 = n=0 (−1) x ; R = 1
n x2n+1
arctan(x) = +∞
P
n=0 (−1) 2n+1 ; R = 1
Probabilités
264
12.1. RAPPELS ET COMPLÉMENTS Cours deuxiéme année MP
Proposition 260. Si (Ti )i∈I est une famille de tribus sur Ω alors T = ∩i∈I Ti est
une tribu.
Considérons une partie A de P(Ω) et soit TA l’ensemble des tribus T tel que
A ⊂ T . On note T (A ) l’intersection de toutes les tribus éléments de TA , c’est-à-
dire :
T (A ) = ∩ T .
T ∈TA
A1 ⊂ A2 ⇒ T (A1 ) ⊂ T (A2 )
2. T ({∅}) = Tg = {∅, Ω}
3. Si A est une tribu de Ω alors T (A) = A.
Définition 121. Soit O l’ensemble des ouverts de l’ensemble R des nombres réels
muni de la valeur absolue. La tribu de R, engendrée par O s’appelle la tribu borélienne
de R, notée BR .
Ainsi la tribu borélienne BR de R est la tribu T (O) engendrée par les ouverts de R.
On donne le théorème suivants et des remarques qui lui sont attachées. Le théorème
sera d’une utilité importante par la suite. Avant de donner ce théorème, on donne et
on démontre un lemme :
Lemme 5. Tout ouvert non vide de R est un réunion au plus dénombrable d’inter-
bornés. Autrement dit pour tout W ∈ O, il existe une partie I de N
valles ouverts S
tel que W = ]an , bn [ avec pour tout n ∈ I, an , bn ∈ R et an < bn .
n∈I
Théorème 61. La tribu borélienne BR est égale à la tribu engendrée par l’ensemble
des intervalles de la forme ] − ∞, a] avec a ∈ R.
] − ∞, a] =] − ∞, a[∪{a}
et :
\ 1 1
{a} = a − ,a +
∗
n n
n∈N
Preuve Note sur la preuve(non nécessaire dans une première lecture) : Tenant
compte du fait que que tout ouvert de R est un réunion au plus dénombrable
d’intervalles ouverts bornés, on procède comme suit :
12.1.1.4 Probabilités
Définition 122. Soit (Ω, T ) un espace probabilisable. on appelle probabilité sur cet
espace toute application P : T → R+ tel que :
(1) P(Ω) = 1
+∞ +∞
P
(2) P( ∪ An ) = P(An ) pour toute famille (An ) d’éléments deux à deux disjoints
n=0 n=0
de T .
le triplet (Ω, T , P) est appelé espace probabilisé.
+∞
P
8. Pour toute famille (An )n∈N d’éléments de T , on a : P ∪ An ≤ P(An ),
n∈N n=0
le second membre de cette inégalité appartient à R+ ∪ {+∞}.
9. Si Ω est au plus dénombrable, le choix T = P(Ω) est le plus usuel.
10. Si (Ω, T , P) est un espace probabilisé, un élément de la tribu T s’appelle un
événement.
P
Preuve 1. Comme la série P(An ) est convergente, le résultat en découle im-
médiatement.
2. Posons An = ∅ pour tout n ∈ N, alors (An )n≥0 est une famille d’événements
deux à deux disjoints, donc, compte tenu du 1) ci-dessus, la suite constante
P(∅) converge vers 0, d’où P(∅) = 0.
3. Posons A0 = A, A1 = B, An = ∅, ∀n ≥ 2, alors (An )n≥0 est une suite d’événe-
ments deux à deux disjoints, et par l’axiome (2), on a P(A∪B) = P( ∪ An ) =
n∈N
+∞
P
P(An ) = P(A) + P(B) puisque P(An ) = P(∅) = 0, ∀n ≥ 2.
n=0
4. On a A = (A\B) ∪ B et (A\B) ∩ B = ∅, donc P(A ∪ B) = P(A\B) + P(B).
On a P(A) = P(A\B) + P(A ∩ B) (mêmes arguments), il en découle que
P(A\B) = P(A) − P(A ∩ B). Compte tenu de (1) et (2), on a : P(A ∪ B) =
P(A) − P(A ∩ B) + P(B).
5. Il suffit d’appliquer l’une des propriétés précédentes à A et Ac .
6. Si A ⊂ B, alors B = A ∪ (B\A) et c’est une réunion disjointe, donc P(A) =
P(B) + P(A\B) donc P(B) ≤ P(A).
7. Par récurrence sur n : Pour n = 0 on a égalité, pour n = 1, on a
P
8. Notons que la série P(An ) est une série à termes positifs donc deux cas sont
+∞
P
possibles : soit P(An ) = +∞ et l’inégalité à prouver est vérifiée puisque le
n=0
membre de gauche est un réel (par convention ∀x ∈ R, x ≤ +∞), soit la série
est convergente de somme `. Si on pose B0 = A0 et Bn = An \ ∪ Ak , alors
0≤k≤n−1
n n
les Bn sont des événements deux à deux disjoints et ∪ Bk = ∪ Ak , en effet
k=0 k=0
n
pour tout n ∈ N, on a Bn ⊂ An ⊂ ∪ Ak . Réciproquement,soit ω ∈ ∪ Ak ,
k∈N k=1
n
si ω ∈ A0 alors ω ∈ B0 , donc ω ∈ ∪ Bk ,sinon soit ` le plus petit entier
k=0
naturel de [[1, n]]tel que x ∈ A` alors 1 ≤ ` ≤ n et ω 6∈ Aj , ∀j ∈ [[0, ` − 1]]
n
et ω ∈ A` , donc ω ∈ B` et finalement ω ∈ ∪ Bk . Il en résulte aussi que
k=0
+∞ +∞
A = ∪ An = ∪ Bn , donc :
n=0 n=0
+∞
X
P(A) = P(Bn )
n=0
n
= lim P( ∪ Bk )
n→+∞ k=0
n
= lim P( ∪ Ak )
n→+∞ k=0
n
X
≤ lim P(Ak )
n→+∞
k=0
+∞
X
≤ lim P(Ak )
n→+∞
k=0
+∞
X
lim P(An ) = P(Bn ) = P(A).
n→+∞
n=0
Soit (An ) une famille décroissante d’événements, alors la famille (Acn ) des complé-
mentaires est croissante. D’après le premier point ci-dessus, on a :
Comme c
∪ Acn = ∩ An ,
n∈N n∈N
on a :
1 − P( ∩ An ) = lim (1 − P(An )) = 1 − lim P(An ).
n∈N n→+∞ n→+∞
Cette dernière égalité est justifiée par la convergence de la suite P(An ) qui est
décroissante positive. Finalement, et compte tenu de la décroissance de la site
P(An ), on a :
P( ∩ An ) = lim P(An ) = inf P(An )
n∈N n→+∞ n∈N
Définition 124. Soit (Ω, T , P) un espace probabilisé. et (Aj )j∈J une famille quel-
conque d’événements. On dit que les événementsYAj sont indépendants si pour toute
partie K finie non vide de J on a P( ∩ Ak ) = P(Ak ).
k∈K
k∈K
On dit aussi que les événements (Aj )j∈J sont mutuellement indépendants.
Or (An ∩ B)n∈N est une famille d’événements deux à deux disjoints, donc :
!
[ X
P (An ∩ B) = P(An ∩ B)
n∈N n∈N
ce qui fournit :
!
[ X P(An ∩ B) X
PB An = = PB (An )
P(B)
n∈N n∈N n∈N
Proposition 262. Soit (Ω, T , P) un espace probabilisé et (Ai )i∈I un système com-
plet d’événements de (Ω, T , P) avec I fini. Alors, pour tout X ∈ T , on a :
X
P(X) = P(Ai )PAi (X).
i∈I
P(A∩B) P(B∩A)
Preuve On sait que PB (A) = P(B) et PA (B) = P( A) , donc P(A ∩ B) =
P(B)PB (A) = P(A)PA (B).
Une classe est composée de 30 élèves répartis sur quatre rangés comme suit suivant
les rangée et le nombre des garçons et de filles :
1. : Rangée I : 4 garçons et 4 filles.
2. : Rangée II : 3 garçons et 4 filles.
3. : Rangée III : 4 garçons et 3 filles.
4. : Rangée IV : 5 garçons et 3 filles.
On fait un tirage au sort d’un élève de cette classe.
1. Quelle est la probabilité que ce soit un garçon sachant qu’il a été tiré dans la
rangée III ?
2. Sachant que l’élève tiré est une fille, quelle est la probabilité que ce soit dans la
rangée III ?
On introduit les événements suivants :
R3 : « L’élève tiré est dans la rangée 3 »
G : « L’élève tiré est un garçon » Puisqu’il y a quatre rangées et qu’elles ont la même
chance que l’élève tiré provienne de chacune d’elles, on a P(R4 ) = 41 .
Le nombre totale des garçons dans cette classe à 30 élèves est 16, donc P(G) = 16 30 =
8
15 .
4
1. P(G|R3 ) = 7 car la rangée R3 comprends 4 garçons et 3 filles.
2. D’après la formule des probabilités composées, on a :
P(R3 )
P(R3 |F ) = P(F |R3 )
P(F )
3 7
Or P(F |R3 ) = 7 et P(F ) = 15 , il vient :
3 1 15 45
P(R3 |F ) = =
74 7 196
Remarque On peut généraliser cette formule sous la forme Tsuivante
:
n−1
Soit n ∈ N, n ≥ 2 et A1 , . . . , An des événements tel que P k=1 Ak 6= 0. Alors, on
a la formule : ! !
\n n
Y k−1
\
P Ak = P(A1 ) P Ak | Aj
k=1 k=2 j=1
Il en découle que :
" n n−1
!#
Y \
P(A) = P(A1 ) P Ak | Aj P(An+1 |Bn )
k=2 j=1
Donc : ! !
n+1
\ n+1
Y k−1
\
P Ak = P(A1 ) P Ak | Aj
k=1 k=2 j=1
Définition 126. On appelle variable aléatoire réelle sur (Ω, T , P), toute application :
X : Ω → R tel que : ∀a ∈ R, X −1 (] − ∞, a]) ∈ T .
Théorème 62. (admis) Si (Xk )1≤k≤m une suite de v.a.r sur (Ω, T , P) et f : Rm →
R une application continue alors l’application ω 7→ f (X1 (ω), · · · , Xm (ω)) de Ω vers
R est une v.a.r. notée f (X1 , · · · , Xm ).
Corollaire 21. Si (X1 , · · · , Xm ) est une famille de v.a.r sur (Ω, T , P) alors
m
P Qm
Xk , Xk , sup (Xk ) et inf (Xk ) sont des v.a.r sur (Ω, T , P).
k=1 k=1 1≤k≤m 1≤k≤m
Preuve Supposons, par exemple, que f est croissante. On sait que pour tout
intervalle I de R, on a f −1 (I) est un intervalle de R, en effet si x, y ∈ f − (I) tel
que x < y, Soit z ∈ R tel que x < z < y alors par croissance de f , on a f (x) ≤
f (z) ≤ f (y) et par suite f (z) ∈ I car f (x), f (y) ∈ I et I est un intervalle de R. Il
en découle que si I est un intervalle de R, on a (f ◦ X)−1 (I) = X −1 (f −1 (I)) ∈ T ,
compte tenu de la remarque 2 ci-dessus juste après la définition d’une v.a.r.
Proposition 265. Soit (Xn ) une suite de v.a.r. sur (Ω, T , P). Si Xn converge
simplement vers X application de Ω vers R alors X est une v.a.r.
∃N ∈ N, ∀k ≥ N, uk < `
Par hypothèse les Xk sont des variables aléatoires, donc (X < a) ∈ T , pour tout
a ∈ R, ce qui prouve le fait que X est une v.a.r.
Définition 127. Si X est une v.a.r. sur (Ω, T , P), l’application ϕ : I (R) → R tel
que ϕ(I) = P(X ∈ I) pour tout I ∈ I (R) s’appelle la loi de la v.a.r. X.
Définition 128. Si X = (X1 , · · · , Xm ) est une famille de v.a.r. sur (Ω, T , P) alors
l’application : Φ : I (R)m → R tel que Φ(I1 , · · · , Im ) = P( ∩ (Xk ∈ Ik )),
1≤k≤m
s’appelle la loi de la famille de v.a.r. X.
Définition 129. Soit X une variable aléatoire réelle sur un espace probabilisé
(Ω, T , P). L’application FX de R vers R définie par : FX (t) = P(X ≤ t) pour
tout t ∈ R est appelée la fonction de répartition de la v.a.r . X.
Exemple On lance une pièce de monnaie une seule fois et on associe à cette expé-
rience l’espace probabilisé (Ω, T , P) avec Ω = {P, F } et P(P ) = p et P(F ) = 1 − p
avec p un réel tel que p ∈ [0, 1]. On considère la variable aléatoire X tel que
X(P ) = 1 et X(F ) = 0. Alors, on a X(Ω) = {0, 1} et pour tout réel t, on a
FX (t) = P(X ≤ t) = 0 si t < 0 et FX (t) = 0 si 0 ≤ t < 1 et FX (t) = 1 si t ≥ 1.
Preuve Pour toute suite (xn ) strictement croissante qui converge vers t0 , on a
] − ∞, t0 [= ∪ ] − ∞, xn ]
n∈N
Définition 131. Soit (Xj )j∈J une famille de variables aléatoires réelles d’un espace
probabilisé (Ω, T , P). On dit que les v.a.r. Xj sont indépendantes si pour toute famille
(Ij )j∈J d’intervalles de R, les événements (Xj ∈ Ij )j∈J sont indépendants.
12.2.4.2 Conditionnement
Définition 132. Si X et Y sont deux v.a.r. sur (Ω, T , P), on dispose des événements
(X ∈ A) et (y ∈ B où A, B ∈ BR . Si P(X ∈ B) 6= 0, alors on sait que :
P(X ∈ A, Y ∈ B)
P (X ∈ A)/(Y ∈B) =
P(Y ∈ B)
On parle de variable conditionnée : Z dont la loi est donnée par :
pour tout A ∈ BR .
Définition 133. Soit X une variable aléatoire réelle sur (Ω, T , P). on dit que X
est discrète s’il existe Ω0 ∈ T tel que P(Ω0 ) = 1 et X(Ω0 ) est au plus dénombrable.
A0 = A ∩ D = {t ∈ A/P(X = t) 6= 0}
4. On parle de variable aléatoire discrète usuelle s’il existe une bijection croissante
ϕ : J → D d’un intervalle J de Z vers D.
Dans ce cas on peut noter D = {tk /k ∈ J} où tk = ϕ(k), ∀k ∈ J.
Définition 134. On dit que la v.a.r. X sur (Ω, T , P) suit une loi uniforme discrète
et on note X ,→ U[[1, n]] si X(Ω) = [[1, n]] et pour tout k ∈ X(ω) , P(X = k) = n1 .
On a X(R) = {1, 2} et
R0 −t 2
√1 1
P(X = 1) =
π −∞ e dt = 2
R +∞ 2
√1 e−t dt = 1
P(X = 2) =
π 0 2
2- Loi de Bernoulli
Définition 135. Soit p un nombre réel tel que p ∈ [0, 1] et X une v.a.r sur (Ω, T , P).
On dit que suit la loi de Bernoulli de paramètre p et on note X ,→ B(p), si X(Ω) =
{0, 1} et P(X = 1) = p et P(X = 0) = 1 − p
Exemple On lance une pièce de monnaie qui montre pile avec une probabilité 13 et
face avec la probabilité 23 . Soit X la variable aléatoire qui prend 1 si on obtient pile
et 0 si on obtient face. Alors X ,→ B( 13 )
3-Loi binomiale
Définition 136. Soit p ∈ [0, 1] et n ∈ N et X une v.a.r sur (Ω, T , P). on dit
que X suit la loi binomiale de paramètres n et p et on note B(n, p), si
: X ,→n−k
X(ω) = [[0, n]] et pour tout k ∈ [[0, n]], P(X = k) = k p (1 − p) , où nk
n k
Exemple Sur 10 foyers d’un village, un seul est prêt d’acheter des livres. Un vendeur
de livres fait le tour des 400 foyers de ce village de manière aléatoire. Quelles est la
probabilité que 40 personnes exactement achètent des livres quand il finit le tour de
tous les foyers du village ? Soit X la variable aléatoire qui prends le nombre de foyers
ayant acheté un livre à ce vendeur. On cherche P(X = 40). Il est facile de voir que
1 1
X ,→ B(400, 10 ) Ω = [[1, 400]], X(Ω = [[0, 400]] et p = 10 et par suite :
360
400 1 9
P(X = 40) =
40 1040 10
Grâce à maple, on trouve : P(X = 40) ' 0.066
4- Loi géométrique X ,→ G(p) si X(Ω) = N∗ et P(X = n) = p(1 − p)n−1 . On
adopte la notation q = 1 − p, donc ∀n ∈ N∗ P(X = n) = pq n−1 .
Remarque Il existe une autre définition qui adopte : X ,→ G(p) si X(Ω) = N et
pour tout n ∈ N, on a : P(X = n) = p(1 − p)n
n
5- Loi de Poisson X ,→ P(λ) si X(Ω) = N et P(X = n) = e−λ λn! .
Définition 137. Soit X une variable aléatoire réelle sur un espace probabilisé
(Ω, T , P). On dit que X est continue à densité si sa fonction de répartition FX
vérifie ce qui suit :
(i) FX est continue sur R.
(ii) Il existe une partie finie A de R tel que FX est de classe C 1 sur R\A.
0 si t ∈ A
La fonction fX définie par fX (t) = est appelé densité de
FX0 (t) si t ∈ R\A
la variable aléatoire réelle X.
Proposition 268. Si X est une variable aléatoire réelle continue à densité sur
(Ω, T , P) alors :
(i) f ≥ 0 sur R.
(ii) fX est continue sur R\A.
R +∞
(iii) −∞ fX (t)dt = 1.
Preuve Comme X est continue à densité, il existe une partie finie A de R tel que
FX est de classe C 1 sur tout intervalle contenu dans R\A. Soit x ∈ R. Trois cas
sont possibles :
• Si A∩] − ∞,Rx[= ∅ alors FX0 R(t) = fX (t) pour tout t ∈ R, en particulier, pour tout
x x
x ∈ R, on a : −∞ fX (t)dt = −∞ FX0 (t)dt = [FX (t)]x−∞ = FX (x) car lim FX (t) =
t→−∞
0.
• Si A∩] − ∞, x[= {a} avec a ∈ R, la formule ci-dessus reste valable si x < a. Si
x ≥ a alors :
Z x Z a Z x
fx (t)dt = fX (t)dt + fX (t)dt = FX (a) + FX (x) − FX (a) = FX (x)
−∞ −∞ a
Puisque fX est de classe C1 sur chacun des intervalles :] − ∞, a1 [, ]ak , ak+1 [(1 ≤
k ≤ m − 1), ]am , x[ et que sa dérivée FX est continue sur R, on a alors :
Z x m−1
X
fX (t)dt = FX (a1 ) + (FX (ak+1 ) − FX (ak )) + FX (x) − FX (am ) = FX (x)
−∞ k=1
Proposition 270. Soit X une variable aléatoire réelle continue à densité, alors pour
tout intervalle I de R de bornes a et b, on a :
Z b
P(X ∈ I) = fX (t)dt = FX (b) − FX (a).
a
Preuve On a :
Donc :
p(X ∈ I) = P(a < X ≤ b) = F (b) − F (a)
D’après la proposition 269, on a alors :
Z b Z a
P(X ∈ I) = fX (t)dt − fX (t)dt
−∞ −∞
donc Z b
P(X ∈ I) = fX (t)dt
a
Proposition 271. Soit X une variable aléatoire sur (Ω, T , P). Si X ,→ U[a, b]
alors la fonction de répartition FX de X est définie par :
0 si x < a
x−a
FX (x) = si a ≤ x ≤ b
b−a
1 si b ≤ t
Rx
Preuve Soit x ∈ R alors FX (x) = −∞ fX (t)dt.
• Si x < a, comme fX est nulle sur ] − ∞, x], on a FX (x) = 0.
• Si a ≤ x ≤ b alors :
Z a Z x
1 x−a
FX (x) = 0dt + dt =
−∞ a b−a b−a
• Si x > b alors :
Z b Z +∞
FX (x) = fX (t)dt + 0dt = FX (b) = 1
−∞ b
Définition 139. Soit X une variable aléatoire réelle continue à densité sur (Ω, T , P)
et Soit λ ∈ R∗+ . On dit que X suit la loi exponentielle de paramètre λ si la fonction
Notation : X ,→ E(λ).
Proposition 272. Soit X une variable aléatoire réelle continue à densité sur
(Ω, T , P) et λ ∈ R∗+ . Si X ,→ E(λ) alors la fonction de répartition FX de X
est définie par :
1 − e−λx si x > 0
FX (x) =
0 si x ≤ 0
Preuve Soit x ∈ R.
• Si x < 0, comme fX est nulle sur ] − ∞, x], on a FX (x) = 0.
• Si x > 0, alors :
Z x
x
λe−λt dt = −e−λt 0 = 1 − λe−λx
FX (x) =
0
Définition 140. Soit X une variable aléatoire réelle continue à densité sur (Ω, T , P)
et soit (µ, σ) ∈ R × R∗+ . On dit que X suit la loi normale de Gauss de paramètres
µ et σ 2 si la densité de X est définie par :
(x − µ)2
1
∀x ∈ R, fX (x) = √ exp −
σ 2π 2σ 2
Notation : X ,→ N (µ, σ 2 ).
4) Loi gamma
Définition 141. Soit X une variable aléatoire réelle continue à densité sur (Ω, T , P)
et soit (a, λ) ∈ R2+ . On dit que X suit la loi Gamma de paramètres a et λ si la densité
fX de X est définie par :
λa a−1 −λt
Γ(a) t e si t ≥ 0
fX (t) =
0 si x < 0
Preuve On peut toujours se ramener aux cas où X(Ω) et Y (Ω) sont au plus
dénombrables. Pour tout ω ∈ Ω, on a (X +Y )(ω) = X(ω)+Y (ω) ∈ X(Ω)+Y (Ω),
donc si D = (X + Y )(Ω) alors D ⊂ D1 + D2 où D1 = X(Ω) et D2 = Y (Ω). On
peut sans nuire à toute généralité 1 , supposer que X(ω) 6= 0 pour tout ω ∈ Ω, de
manière à avoir (X = k)k∈D1 est un système complet d’événement et appliquer la
formule des probabilités totales : pour s ∈ X + Y (Ω), on a :
X
P(X + Y = s) = P(X = k)P(X + Y = s|X = k)
k∈D1
Or :
P(X + Y = s, X = k) P(X = k, Y = s − k)
P(X + Y = s|X = k) = =
P(X = k) P(X = k)
Par indépendance, il vient :
P(X = k)P(Y = s − k)
P(X + Y = s|X = k) = = P(Y = s − k)
P(X = k)
d’où : X
P(X + Y = s) = P(X = k)P(Y = s − k)
k∈D1
sous réservé que fX+Y est bien définie sur R et est continue sur R\A où A est une
partie finie de R.
sous réservé que fX+Y ci-dessus est continue sur R\A où A est une partie finie de
R.
Voir le tableau récapitulatif des variables aléatoires réelles usuelles discrètes et conti-
nues à densité. Toutes les 9 v.a.r. admettent une espérance.
Note : On admet que si X est une variable aléatoire sur (Ω, T , P) est g : R → R
une application continue par morceaux, alors g ◦ X est une variable aléatoire sur
(Ω, T , P).
Soient X et Y sont deux variables aléatoires tel que chacune d’elle est soit discrète
soit continue à densité et λ ∈ R et supposons que X + λY est discrète ou continue
donc X
E(|Y |) = |j|P(X = i, Y = j).
(i,j)∈I×J
Proposition 277. Soient Y, Y deux v.a.r. sur (Ω, T , P) tel que |X| ≤ Y . Si Y
admet une espérance il en est de même pour X.
12.2.8.7 Moments
Définition 143. Soit X une variable aléatoire réelle et m un entier naturel non nul.
Si l’espérance de la variable aléatoire X m existe, le nombre réel E(X m ) s’appelle le
moment d’ordre m de X.
et comme E(X n ) existe par hypothèse et que la famille (pk ) est sommable, on
déduit que la famille (xm k pk ) est sommable .
Dans la cas continue à densité on applique l’inégalité à |fX (t)| pour tout t ∈ R et
du fait que t 7→ tn fX (t) et de t 7→ fX (t) sont intégrables, on conclut.
Proposition 280. Soit X une variable aléatoire sur (Ω, T , P) admettant un mo-
ment d’ordre 2 alors V(X) ≥ 0. De plus, on a :
(1) Si X est continue à densité alors V(X) > 0.
(2) Si X est discrète alors, V(X) = 0 si et seulement si ∃Ω1 ∈ T tel que p(Ω1 ) = 1
et X est constante sur Ω1 .
∀x ∈ X(Ω)\{µ}, P(X = x) = 0
Posons
Ω1 = (X = µ) = X −1 ({µ})
On a P(Ω1 ) = 1 car
12.2.8.8 Covariance
Pour tout k ∈ K, on pose Uk = {(i, j) ∈ I × J/ij = k}, alors (Uk )k∈K est une
partition de I × J et on a :
[
∀k ∈ K, (XY = k) = (X = i, Y = j)
(i,j)∈Uk
Définition 145. Soient X et Y deux variables alétoires réelles sur (Ω, T , P), toutes
les deux discrètes ou toutes les deux continues à densité admettant chacune un
moment d’odre deux. Le nombre réel :
Proposition 285. Soient X et Y deux variables alétoires réelles sur (Ω, T , P),
toutes les deux discrètes ou toutes les deux continues à densité admettant chacune
un moment d’odre deux. Alors X + Y admet une variance et on a :
Proposition 286. Soient X et Y deux variables alétoires réelles sur (Ω, T , P),
toutes les deux discrètes ou toutes les deux continues à densité admettant chacune
un moment d’odre deux. Si X et Y sont indépendantes alors
C(X, Y ) = 0
en particulier :
V (X + Y ) = V (X) + V (Y ).
Définition 146. Soient X et Y deux variables alétoires réelles sur (Ω, T , P), toutes
les deux discrètes ou toutes les deux continues à densité admettant chacune un
moment d’odre deux et tel que : V(X)V(Y ) 6= 0. Si V(X)V(Y ) 6= 0, le nombre
réel :
C(X, Y )
ρ(X, Y ) =
σ(X)σ(Y )
est appelé le coefficient de corrélation de X et Y .
Proposition 287. Soient X et Y deux variables alétoires réelles sur (Ω, T , P),
toutes les deux discrètes ou toutes les deux continues à densité admettant chacune
un moment d’odre deux et tel que : V(X)V(Y ) 6= 0. Alors :
1. ρ(X, Y ) ∈ [−1, 1].
α>0
2. ρ(X, Y ) = 1 ⇔ ∃(α, β) ∈ R2 , .
Y = αX + β
α>0
3. ρ(X, Y ) = −1 ⇔ ∃(α, β) ∈ R2 , .
Y = −αX + β
Remarques Soient X et Y deux variables alétoires réelles toutes les deux discrètes
ou toutes les deux continues à densité admettant chacune un moment d’odre deux
et tel que V(X)V(Y ) 6= 0. Alors :
1. Si ρ(X, Y ) = 0 on dit que X et Y sont non corrélées.
2. Si X et Y sont indépendantes, alors elles sont non corrélées, la réciproque étant
fausse.
Exemple Soit (Ω, T , P) un espace probabilisé et X une v.a.r. continue à densité tel
que X ,→ U[1, 2]. On sait que E(X) = 23 et V(X) = 12 1
, donc σ(X) = 2√1 3 , alors
√
X ∗ = 2 3(X − 32 ).
pn tn
P
Proposition 288. Soit X un v.a.r. représentée par (n, pn ). La série entière
a un rayon de convergence R tel que R ≥ 1 et la fonction GX définie par
+∞
X
GX (t) = p n tn
n=0
est continue sur [−1, 1] et elle est de classe C ∞ sur ] − R, R[. On a GX (1) = 1
+∞
X
tn P(X = n).
P
Remarque Si t > 0 alors GX (t) = E(t ) =
n=0
et
+∞
X +∞
X +∞
X
G00X (1) = n(n − 1)pn = 2
n pn − npn = E(X 2 ) − E(X)
n=2 n=0 n=0
• Deuxième cas : R = 1
1) Dérivée première :
• Supposons que E(X) existe. Si on pose fn (t) = pn tn , pour tout n ∈ N et tout
t ∈ [−1, 1] alors les fn sont de classe C 1 sur [−1, 1] et :
(Bien entendu f00 (t) = 0 pourPtout t ∈ [−1, 1]). Il en découle que |fn0 (t)| ≤ npn
pour tout n ∈ N donc la série fn0 converge normalement donc uniformément
P sur
[−1, 1] donc on peut dériver terme à terme la série de fonctions fn sur [−1, 1],
donc :
+∞
X
0
∀t ∈ [−1, 1], GX (t) = npn tn−1
n=1
en particulier :
+∞
X X
G0X (1) = npn = npn = E(X).
n=1 n=0
+∞
X +∞
X
n
GX (t) − GX (1) = pn t − pn
n=0 n=0
+∞
X
= pn (tn − 1)
n=1
+∞
X X
= (t − 1)pn ( n − 1tk )
n=1 k=0
+∞
X n−1
X
= (t − 1) pn tk
n=1 k=0
Donc :
+∞
X n−1
X
∆X (t) = pn Pn (t), avec , Pn (t) = tk
n=1 k=0
P
On veut démontrer que E(X) existe, donc que la série à termes positifs npn , n ≥
1 est convergente, pour cela il suffit de prouver que sa somme partielle d’ordre n,
Pn
Sn = kpk est majorée. Commençons par remarquer que si on pose
k=1
n
X
Fn (t) = pk Pk (t)
k=1
alors n
X
lim Fn (t) = kpk = Sn
t→1
k=1
Or :
∀t ∈ [0, [, Fn (t) ≤ ∆n (t)
car les pk sont positifs, donc par passage à la limite :
Dérivée seconde :
ce qui permet de dire que : G00X (1) = lim ∆0X (t) avec
t→1
+∞
G0X (t) − G0X (1) X
∆0X (t) = = n(n − 1)pn Qn (t)
t−1 n=2
n−2
tk . Comme dans la première partie, on va montrer que Tn =
P
avec Qn (t) =
k=0
n
P
k(k − 1)pk est majoré, on commence par remarque que si on pose Hn (t) =
k=0
n
k(k − 1)pk Qk (t) alors lim Hn (t) = Tn . Or Hn (t) ≤ ∆0X (t) et par passage à
P
k=2 t→1
la limite, on obtient Tn ≤ G00X (t)
P
et par suite la série − 1)pn converge
n(n P
n2 pn converge
P
et comme E(X) existe la série npn converge dons la série
d’où l’existence du moment d’ordre 2 et d’après la preuve du premier sens on a
G00X (2) = E(X 2 ) − E(X).
Ceci termine la preuve du théorème.
Preuve il suffit de le prouver pour deux variables, le reste s’en déduit par simple
récurrence. Soit donc X et Y deux v.a.r. indépendantes tel que X(Ω) = Y (Ω) = N.
Alors :
+∞
X
GX+Y (t) = P(X + Y = n)tn
n=0
+∞ X
X n
= P(X = k)P(Y = n − k)tn
n=0 k=0
+∞ X
X n
= P(X = k)tk P(Y = n − k)tn−k
n=0 k=0
P n P n
On remarque qu’il s’agit du produit de Cauchy des séries pn t et qn t où
p = P(X = n) et qn = P(Y = n), qui sont absolument convergente pour tout t tel
que |t| < 1, donc :
GX+Y (t) = GX (t)GY (t)
P n P n
où GX (t) = pn t et GY (t) = qn t sont les fonctions génératrices respectives
de X et Y .
Théorème 67. Soit X une v.a.r positive sur (Ω, T , P) tel que X admet une espé-
rance, alors : pour tout réel α > 0, on a :
E(X)
P(X ≥ α) ≤
α
(inégalité de Markov)
Il en découle :
Z +∞ Z +∞ Z +∞
E(X) ≥ tfX (t)dt ≥ αfX (t)dt = α fX (t)dt = αP(X ≥ α)
α α α
Théorème 68. Soit X une v.a.r sur (Ω, T , P). Si X admet une variance alors on
a:
V(X)
∀β > 0, P(|X − E(X)| ≥ β) ≤
β2
(inégalité de Bienaymé-Chebychev)
Théorème 69. Soit X une variable aléatoire réelle ayant une espérance et f : R →
R convexe. Si f (X) admet une espérance alors :
12.4.2 Convergence
12.4.2.1 Convergence en loi
Définition 149. Soit (Xn ) une suite de v.a.r et X une v.a.r. On dit que (Xn )
converge en loi vers X si la suite (Fn ) des fonctions de répartitions des Xn converge
simplement vers F la fonction de répartition de X sur R\D où D est l’ensemble des
ponts de discontinuité de F .
Proposition 289. Si X ainsi que les Xn sont discrètes à valeurs dans N alors
Xn → X en loi si et seulement si
Exemples 1. Soit (Xn ) sur (Ω, T , P) tel que Xn ,→ B(p), alors Xn → X1 en loi.
2. Soit (Xn ) une suite de v.a.r sur (Ω, T , P) tel qu’il existe une suite (pn ) ∈ [0, 1]N
et λ > 0 tel que lim npn = λ. Si Xn ,→ B(n, pn ) pour tout n alors Xn → X en
loi où X ,→ P(λ) (voir TD).
( 1 P 1
3 2|k|
si A ∩ Z 6= ∅
3. On considère ici Ω = R, T = P(R) et P(A) = k∈A∩Z
0 si A ∩ Z = ∅
∗
et pour tout n ∈ N .
Soit x0 ∈ R. On dit qu’une v.a.r. Y sur (Ω, T , P) suit la loi de dirac de paramètre
x0 , et on note Y ,→ D(x0 ) si P(Y = x0 ) = 1. Il en résulte que l’ensemble de
valeurs possibles de Y est D = {x0 }. Un exemple simple de telle variables est
l’application constante ω 7→ x0 de R vers R.
l Soit Xn une variable aléatoire réelle tel que Xn ,→ B( n1 ). Alors Xn → X en
loi où X ,→ D(0).
En effet, nous avons, pour tout n ∈ N∗ :
0 si t < 0
Fn (t) = 1 − n1 si 0 ≤ t < 1
1 si 1 ≤ t
Définition 150. On dit qu’une suite (Xn ) de v.a.r sur (Ω, T , P) converge en pro-
babilité vers une v.a.r X sur (Ω, T , P) si :
Proposition 290. Soit (fn )n∈N une suite d’applications de R vers R qui converge
simplement sur R vers une application f : R → R. Si X est une v.a.r. sur ((Ω, T , P)
tel que Yn = fn (X), n ∈ N et Y = f (X) alors (Yn ) tends vers Y en probabilité.
Preuve Soit
Ω1 = {ω ∈ Ω/ lim (Yn (ω)) = Y (ω)}
n→+∞
On a Ω1 = Ω car Ω1 ⊂ Ω par définition de Ω1 ; réciproquement, si ω ∈ Ω alors
X(ω) ∈ R et comme (fn ) → f simplement, on a fn (X(ω)) → f (X(ω)), d’où
Yn (ω) → Y (ω).
Notons que pour tout ω ∈ Ω, on a :
où
An,α = (|Yn − Y | < α)
par suite : [ \
Ω= An,ε
N ∈N n≥N
Ω = ∪ BN
N ∈N
∀n ≥ N, 1 − P(|Yn − Y | ≥ ε) > 1 − δ
donc :
∀ε > 0, ∀δ > 0, ∃N ∈ N, ∀n ≥ N, p(|Yn − Y | ≥ ε) < δ
Ceci démontrer que :
Théorème 70. Soit (Xn ) une suite de v.a.r. et X une v.a.r. sur (Ω, T , P). Si (Xn )
converge en probabilité vers X alors (Xn ) converge en loi vers X.
Théorème 71. Soit (Xn )n∈N∗ une suite de v.a.r indépendantes et identiquement
distribuées admettant un moment d’ordre 2. Soit µ l’espérance
mathématique com-
n
mune de ces variables aléatoires Xn , n ≥ 1. Alors la suite Mn = n1
P
Xk
k=1 n≥1
converge en probabilité vers la variable aléatoire constante µ.
n
1
P
Preuve Soit Mn = n Xn . Par linéarité de l’espérance, on a E(Mn ) = µ et par
k=1
2
indépendance on a V (Mn ) = n12 (nσ 2 ) = σn où σ est l’écart-type commun des v.a.r.
Xn . Par l’inégalité de Bienaymé-Chebychev, on a :
σ2
∀ε > 0, P(|Mn − µ| ≥ ε) ≤
nε2
Pa conséquent :
∀ε > 0, lim P(|Mn − µ| ≥ ε) = 0
n→+∞
Théorème 72. Soit (Xn )n≥1 une suite de v.a.r. indépendantes, identiquement dis-
tribuées admettant un moment d’ordre 2 et soit µ et σ l’espérance mathématique
et l’écart type communs de ces variables aléatoires. Soit (Mn ) la suite des v.a.r.. tel
n
que Mn = n1 Xk . Alors la suite (Mn∗ ) des variables aléatoires réduites centrées
P
k=1
des Mn converge en loi vers une v.a.r. qui suit la loi de Gauss standard : N (0, 1)
n
1
Xk . Donc E(Mn ) = n1 (nµ) = µ et par indépendance,
P
Or Mn = n Sn , où Sn =
k=1
1 2 σ2
V (Mn ) = n2 nσ = n, donc
σ
σ(Mn ) = √ ,
n
donc √
n
Mn∗ = (Mn − µ),
σ
ce qui donne aussi
σ
Mn = √ Mn∗ + µ.
n
On peut démontrer facilement que si X est une variable aléatoire et X ∗ la variable
aléatoire centrée réduite associée alors X ,→ N (µ, σ) ⇔ X ∗ ,→ N (0, 1).
Ainsi le fait d’identifier Mn∗ à une variable aléatoire qui suit la loi N (0, 1) est équi-
valent à identifier Mn à X tel que X ,→ N (µ, √σn )
Exemple 200 personnes contribuent à un jeu qui consiste à faire tourner une roue
au hasard une seule fois pour chaque personne. On note Xk la variable aléatoire
associée à l’angle modulo 2π duquel la roue tourne après la contribution de la k
ème personne. On suppose que toutes les précautions sont prises pour que les Xk
sont mutuellement indépendantes. Calculer la probabilité que la moyenne des angles
associés aux 200 personnes ne dépasse pas un demi tour.
Réponse : Il s’agit d’une famille de variables aléatoires (Xk ), 1 ≤ k ≤ 200, qui
suivent la loi uniforme U[0, 2π]. Les v.a.r Xk sont identiquement distribuées d’espé-
rance µ = π et d’écart-type σ = √π3 . Si on applique le théorème central limite, on
identifie la moyenne M200 à une v.a.r X tel que X ,→ N (π, 10π√6 ). On veut :
P (Mn ≤ π) = P(X ≤ π)
√ Z
10 6 π − 1 ( 10√6(t−π) )2
= √ e 2 π dt
π 2π −∞
' 0.5
12.5 Annexe
12.5.1 Tableau récapitulatif des variables aléatoires réelles discrètes usuelles
Nom Notation X(Ω)Loi de X E(X)V(X) GX (t)
Uniforme
dis- n + 1 n2 − 1 1 − tn
crète X ,→ U (A) A k ∈ {1 · · · n}
2 12 1−t
A = {1, ..., n} 1
P(X = k) =
n
Bernoulli
de
para- X ,→ Ber(p){0, 1} P(X = 0) = 1 − pp p(1−p) 1 − p + pt
P(X = 1) = p
mètre
p ∈
[0, 1]
Binomiale
de
para- X [[0, n]]P(X = k) = Cnk pk qnp
,→ B(n, p) n−k
np(1−p)(1−p+pt)n
mètres avec q = 1 − p
n et p
Poisson
de λn λ
para- X ,→ P(λ) N P(X = n) = e−λ λ eλ(t−1)
n!
mètre
λ, avec
λ ∈
∗
R+
Loi
géomé- 1 1−p pt
trique X ,→ G (p) N∗ P(X = n) = p(1−p)n−1
p p2 1 − (1 − p)t
de
para-
mètre
p avec
p ∈
]0, 1[
12.5.3.3 Loi Γ
Proposition 294. Si X et Y sont deux v.a.r indépendantes sur (Ω, T , P) tel que
X ,→ Γ(λ, a) et Y ,→ Γ(λ, b) alors X + Y ,→ Γ(λ, a + b)
Proposition 295. Si X et Y sont deux v.a.r indépendantes sur p (Ω, T , P) tel que
X ,→ N (µ1 , σ1 ) et Y ,→ N (µ2 , σ2 ) alors X + Y ,→ N (µ1 + µ2 , σ12 + σ22 )
où v
m
X
u m
uX
µ= µk et σ = t σk2
k=1 k=1
Calcul différentiel.
Exemples :
321
13.1. APPLICATION DIFFÉRENTIABLE Cours deuxiéme année MP
de sorte que :
ϕ0a,e (0) = 4 + 1 + 9 + 3 = 17
donc f est dérivable au point a suivant e et on a :
De f (a) = 17.
avec lim ε(h) = 0, donc : lim f (a + h) = f (a) puisque lim df (a)(h) = 0 par
h→0 h→0 h→0
h6=0
continuité de l’application linéaire df (a)(dimension finie).
On adopte par exemple la norme kHk = sup(khk, kkk), alors par continuité de
l’application bilinéaire f il existe une constante positive M tel que pour tout (h, k) ∈
Preuve Supposons que f est dérivable au point a, alors pour h réel voisin de 0,
on a : f (a + h) = f (a) + hf 0 (a) + o(h), ce qui exprime que f est différentiable
au point a et que pour tout h réel df (a)(h) = hf 0 (a). Réciproquement, si f est
différentiable au point a alors df (a) est une application linéaire de R vers F et
précisément, on a pour tout h réel : df (a)(h) = hdf (a)(1). On a alors pour h
voisin de 0 : f (a + h) = f (a) + hdf (a)(1) + o(h), ce qui donne : f est dérivable au
point a et f 0 (a) = df (a)(1). Par définition de la dérivée suivant le vecteur 1, on a
aussi f 0 (a) = D1 f (a)
De f (a) = df (a)(e)
p
X ∂f
df (a)(h) = hj (a)
j=1
∂xj
La réciproque de ce résultat n’est pas vraie.On peut même prouver qu’une application
f peut admettre des dérivées suivant tout vecteur e au point a sans que f soit
différentiable au point a. Cependant, on a le résultat suivant :
∂f
Théorème 73. Si les dérivées partielle de f au point a à savoir ∂xi (a); 1 ≤i≤p
p
P
existent et si de plus, pour tout h = hi ei voisin de 0, on a :
i=1
p
X ∂f
f (a + h) − f (a) − hi (a) = o(khk)
i=1
∂xi
x3 y
x2 +y 2 si (x, y) 6= (0, 0)
2
Exemple Soit f : R → R; (x, y) 7→ . Montrons que f
0 si (x, y) = (0, 0)
est différentiable au point (0, 0) et que df (0, 0) = θ (θ est l’application nulle de R2
vers R.).
On a :
f (x, 0) − f (0, 0)
lim =0
x→0
n6=0
x
, donc :
∂f
(0, 0) = 0
∂x
de même
∂f
(0, 0) = 0.
∂y
On a f est différentiable au point (0, 0) si et seulement si, pour (x, y) voisin de (0, 0),
on a :
∂f ∂f p
f (x, y) − f (0, 0) − x (0, 0) − y (0, 0) = o( x2 + y 2 ),
∂x ∂y
c’est-à-dire : p
f (x, y) = o( x2 + y 2 ).
p |x| ≤ kXk
En notant X = (x, y) et kXk = x2 + y 2 , et compte tenu du fait que : ,
|y| ≤ kXk
on a :
f (x, y) |x3 y|
p = 3
x2 + y 2 (x2 + y 2 ) 2
|x|3 |y|
=
kXk3
kXk4
≤
kXk3
= kXk −→ 0
X→(0,0)
Il en découle que f (X) = o(kX)k) quand X → (0, 0), donc f est différentiable au
point (0, 0) et df (0, 0) = θ.
Règle générale : Soit f : U ⊂ Rp → F une application et a ∈ U . On note
B = (e1 , · · · , ep ) la base canonique de Rp .
- Si l’une des dérivées partielles de f au point a n’existe pas alors f n’est pas
différentiable au point a.
∂f
- Si toutes les dérivées partielles ∂x i
(a); 1 ≤ i ≤ p existent , cela ne suffit pas encore
pour dire que f est différentiable au point a, mais si on prouve que :
p
X ∂f
f (a + h) − f (a) − hi (a) = o(khk)
i=1
∂xi
pour h voisin de 0 alors f est différentiable au point a et sa différentielle est définie
par :
p p
X X ∂f
∀h ∈ E, h = hi ei ⇒ dfa (h) = hi (a)
i=1 i=1
∂x i
13.1.5.2 Composition
Théorème 75. E, F, G sont des espaces vectoriels normés, U, V des ouverts non
vides respectifs de E et F et f : U → F et g : V → G des applications tel que
f (U ) ⊂ V . Soit a ∈ U . Si f est différentiable au point a et g est différentiable au
point f (a) alors g ◦ f est différentiable au point a et :
Posons ϕ(h) = df (a)(h) + khkε1 (h), pour tout h ∈ V1 . Comme lim ϕ(h) = 0, il
h→0
existe un voisinage V de 0E dans E tel que ϕ(V ) ⊂ V1 , donc d’après (2), on a
pour tout h ∈ V :
Il en découle que :
avec
ψ(h) = khkdg(f (a))(ε1 (h)) + kϕ(h)kε2 (ϕ(h))
| {z } | {z }
α1 (h) α2 (h)
il suffit en fait de prouver que α2 (h) = o(khk). Pour ce faire remarquons que la
continuité de l’application linéaire df (a) implique l’existence d’une constante c > 0
tel que kdf (a)(h)(x)k ≤ ckxk , pour tout x ∈ E. Cela dit, on a alors :
ce qui fournit aisément le résultat désiré, à savoir : α2 (h) = o(khk) quand h tends
vers 0 et achève en conséquence la preuve du théorème ci-dessus.
Preuve On a :
∂(g ◦ f )
(a) = Dej (g ◦ f )(a)
∂xj
d(g ◦ f )(a)(ej )
=
(dg(f (a)) ◦ df (a))(ej )
=
=
dg(f (a))(df (a)(ej ))
=
dg(f (a))(Dej f (a))
∂f
= dg(f (a)) (a)
∂xj
Rappelons que pour tout h ∈ F tel que :
X r
h= hk uk ,
k=1
on a : r
X ∂g
dg(f (a))(h) = hk (f (a)).
∂yk
k=1
En appliquant pour
r
∂f X ∂fk
h= (a) = (a)uk
∂xj ∂xj
k=1
il vient : r
∂(g ◦ f ) X ∂fk ∂g
(a) = (a) (f (a))
∂xj ∂xj ∂yk
k=1
Les matrices jacobiennes en question étant calculées par rapport aux bases corres-
pondantes parmi celles fixées ci-dessus.
Preuve Si f est différentiable au point a, comme Φ est linéaire elle est différen-
tiable sur F donc au point a, donc, d’après le théorème 75, Φ ◦ f est différentiable
au point a et d(Φ ◦ f )(a) = dΦ(f (a)) ◦ df (a) et comme dφ(f (a)) = Φ, on a
d(Φ ◦ f )(a) = Φ ◦ df (a).
Exemple Soit n ∈ N∗ et
f : Mn (R) → Mn (R); X 7→ X 2
et
g : Mn (R) → R; X 7→ tr(X 2 )
1. Montrer que f est différentiable sur Mn (R) et préciser sa différentielle en tout
point A de Mn (R).
2. En déduire que g est différentiable sur Mn (R) et préciser sa différentielle en
tout point.
∂g
3. Calculer ∂xi,j (A), pour toute matrice A ∈ Mn (R).
Réponse :
1. Soit A, H ∈ Mn (R) ; alors :
∀H ∈ Mn (R), df (A)(H) = AH + HA
Preuve Si f est différentiable au point a, remarquons que pour tout i ∈ [[1, n]],
on a :
f i = πi ◦ f
Pn
où πi : F → R, x 7→ πi (x) = xi où x = xk Vk , donc π étant linéaire, elle est
k=1
différentiable et dπi = πi de sorte que fi est différentiable au point a et dfi (a) =
π ◦ df (a).
Réciproquement, si pour tout k ∈ [[1, n]], l’application fk est différentiable au point
a, il existe des applications εk , k ∈ [[1, n]] définies sur W \{0} où W est un voisinage
de 0 tel que :
∀i ∈ [[1, n]], ∀h ∈ W, fi (a + h) = fi (a) + dfi (a)(h) + khkεi (h)
avec lim εi (h) = 0, pour tout i ∈ [[1, n]]. En sommant, on a :
h→0
n
X n
X n
X n
X
fi (a + h)Vi = fi (a)Vi + dfi (a)(h)Vi + khk εi (h)
i=1 i=1 i=1 i=1
ce qui donne :
f (a + h = f (a) + L(h) + khkε(h)
avec n
X
∀h ∈ E, L(h) = dfi (a)(h)Vi
i=1
donc L est linéaire de E vers F , et :
n
X
∀h ∈ V, ε(h) = εi (h)
i=1
avec
Φ : L(F, G) × L(E, F ); (u, v) 7→ u ◦ v
qui est une application bilinéaire, donc par un théorème qui concerne la conti-
nuité du produit de deux applications continues via une application bilinéaire,
l’application
d(g ◦ f ) = Φ(dg ◦ f, df )
est continue sur U . Rappelons que si ψ1 : U → F1 , ψ2 : U → F2 sont deux
applications et Ψ : F1 × F2 → G une application bilinéaire alors Ψ(ψ1 , ψ2 )
est l’application qui associé à tout vecteur x de U le vecteur de G, y =
Ψ(ψ1 (x), ψ2 (x)).
Preuve
• Si f est de classe C 1 sur U alors en particulier f est différentiable sur U et on a
déjà vu que :
Xn
∀x ∈ U, df (x) = df (x)Vi
i=1
Pour tout j ∈ [[1, n]], on note Lj lapplication :
n
X
Lj : L(E, F ) → L(E, R); g = gi Vi 7→ Lj (g) = gj
i=1
Alors g est linéaire donc continue(dimension finie). Par ailleurs, il est clair que :
Par continuité de df et Li , on a donc dfi est continue sur U donc fi est de classe
C 1 sur U pour tout i ∈ [[1, n]].
• Réciproquement supposons que pour tout i ∈ [[1, n]], fi est de classe C 1 . On a f
est différentiable sur U et :
n
X
∀x ∈ U, df (x) = df (x)Vi
i=1
donc
∀x ∈ U, df (x) = L(df1 (x), . . . , dfn (x))
où L est l’application :
n
X
n
L : (L(E, R)) → L(E, F ); (g1 , . . . , gn ) 7→ gi V i
i=1
qui est manifestement continue car linéaire. Par suite df est continue sur U donc
f est de classe C 1 sur U .
• Supposons que f est de classe C 1 sur U , donc f est différentiable et par suite ses
∂f
dérivées partielles ∂xj
existent. Pour tout j ∈ [[1, p]], on a :
∂f
∀x ∈ U, (x) = df (x)(ej ) = (Lj ◦ df )(x)
∂xj
où
Lj : L(E, F ) → F ; u 7→ Lj (u) = u(ej )
de sorte que Lj est continue car linéaire en dimension finie. Comme
∂f
= Lj ◦ df
∂xj
∂f
on a en vertu de la continuité de df supposée là haut que ∂xj est continue sur U .
∂f
• Réciproquement, supposons que les dérivées partielles ∂xj existent et sont conti-
nues, pour tout j ∈ [[1, p]]. Soit a ∈ U . Soit ε > 0. Par continuité des dérivées
partielles au point a, il existe η > 0 tel que :
a+h∈U
(?) ∀h ∈ E, khk < η ⇒ et +
∂f ∂f ε
∂xj (a + h) − ∂xj (a) < p
1. c1 entre a1 et a1 + h1 .
2. c2 entre a2 + h2 et a2
3. . . . . . . . . .
4. cp entre entre ap et ap + hp
tel que :
∂f
f (a + h) − f (a) = h1 (c1 , a2 + h2 , . . . , ap + hp )
∂x1
∂f
+h2 (a1 , c2 , . . . , ap + hp )
∂x2
+......
∂f
+hp (a1 , a2 , . . . , ap−1 , cp )
∂x2
Si on note :
p
X ∂f
∆(h) = f (a + h) − f (a) − hj (a)
j=1
∂xj
ce qui précède permet de dire que pour tout h ∈ E tel que khk < η, on a :
p
X
∆(h) = hj Φj (h)
j=1
Avec :
∂f ∂f
Φj (h) = (a + Hj ) − (a)
∂x1 ∂xj
avec :
Hj = (0, . . . , 0, cj − aj , hj+1 , . . . , hp )
de sorte que, pour tout j ∈ [[1, p]], on a kHj k < η car la seule composante de Hj à
examiner est cj − aj , et comme cj est entre aj et aj + hj , on a |cj − aj | ≤ |hj | ≤
khk < η. Il découle de (?) que :
p
X
|∆(h)| < ε |hj | = εkhk
j=1
∆(h) = o(khk)
Le sens direct est évident ; l’autres sens ne l’est pas. On donne la preuve de cette
proposition uniquement dans le cas où U est un ouvert non vide convexe de E.
Preuve Supposons U convexe et soit (a, b) ∈ U . Pour tout t ∈ [0, 1], posons
γ(t) = (1 − t)a + tb = t(b − a) + a, donc γ est de classe C 1 sur [0, 1] et pour
tout t ∈ [0, 1], on a γ 0 (t) = b − a. Remarquons que γ(0) =R a et γ(1) = b donc
1
en appliquant la proposition 314 , il vient : f (b) − f (a) = 0 df (γ(t)).(b − a)dt,
or γ(t) ∈ U par convexité et par suite df (γ(t)) = θ, donc f (b) − f (a) = 0 et
f (a) = f (b) pour tout a, b ∈ U , donc f est constante sur U .
∂kf
Définition 156. Si celles-ci existent les ∂xik ···∂xi1 sont appelées les dérivées partielles
de f d’ordre k
Définition 157. On dit que f est de classe C k sur U si f admet toutes les dérivées
partielles d’ordre k sur U et celles-ci sont continues sur U .
On dit que f est de classe C ∞ sur U si f est de classe C k sur U pour tout k ∈ N∗ .
k k−j ∂j f
∂α : C (U, F ) → C (U, F ); f →
7 ∂α (f ) = α1 α
∂x1 . . . ∂xp p
et une application linéaire.
2) Dans le cas particulier où p = ∞, on peut, pour tout α = (α1 , . . . , αp ) ∈ Np ,
considérer l’endomorphsme ∂α de C ∞ (U, F ) défini par :
∂j f
∀f ∈ C ∞ (U, F ), ∂α f = ∂α (f ) = α
∂xα1 1 . . . ∂xp p
m∈I
13.3.1 Gradient
Remarquons que si f : U ⊂ Rp → R est une application différentiable en un point
a de U , sa différentielle df (a) est une forme linéaire sur Rp . Par le théorème de
par suite :
∇g(X) = Com(X)
13.3.2 Extrêmums
13.3.2.1 Point critique, maximum, minimum, extremum
Remarque Cela revient à dire que les dérivées partielles de f au point a sont nulles,
donc :
∂f
∀j ∈ [[1, p]] (a) = 0
∂xj
∀e ∈ Rp , h∇f (a), ei = 0
Remarques 1. Cela se traduit dans la pratique par : Avant de chercher les extre-
mums d’une applications f : U → R, il faut commencer par chercher les points
critiques puis chercher parmi ceux-ci les extremums.
2. On donnera des conditions du second ordre dans le sous paragraphe ci-dessous.
Théorème 80. Toute matrice réelle symétrique est diagonalisable dans une base
orthonormée. Autrement dit si A est une matrice réelle symétrique d’ordre p, alors il
existe des nombres réels λ1 , · · · , λp et une matrice orthogonale Ω tel A = t ΩDΩ
λ1
où D = ... est la matrice diagonales de termes diagonaux λ1 , · · · , λp .
λp
Dans tout ce qui suit U est un ouvert non vide de Rp et f : U → R est une
application de classe C 2 sur U . On rappelle la formule de Taylor-Young au voisinage
de a à l’ordre 2 :
p p
1 XX ∂ 2f
f (a + h) = f (a) + h∇f (a), hi + hi hj (a) + khk2 ε(h)
2 i=1 j=1 ∂xi ∂xj
Donc :
4x3 = 2(x − y)
(x, y) est un point critique ⇔
4y 3 = −2(x − y)
x3 = −y 3
⇔
x − y = 2x3
y = −x
⇔
2x = 2x3
x=1
⇔ x = y = 0 ou
y = −1
x = −1
ou
y=1
Il y’ a donc trois points critiques : (0, 0), (1, −1) et (−1, 1). En remarquant que
f (X) = f (−X) pour tout X ∈ R2 , on fera l’étude uniquement en (0, 0) et (1, −1).
Les dérivée partielles d’ordre 2 de f sont :
∂ 2f 2 ∂ 2f ∂ 2f
2
(x, y) = 12x − 2, (x, y) = 2, 2 (x, y) = 12y 2 − 2,
∂x ∂x∂y ∂y
Il en découle que :
• Au point (1, −1), on a : r = 10, s = 2, t = 10, donc rt − s2 = 96 > 0 et comme
r > 0, f (1, −1) = −2 est un minimum local strict de f .
• Comme f (1, −1) = f (−1, 1) = −2 on a la même conclusion pour (−1, 1).
• En (0, 0) : r = −2, s = 2, t = −2, donc rt − s2 = 0. On ne peut pas conclure par
le théorème ci-dessus,on fera une étude par une autre méthode : On remarque que
si on pose un = n1 , n1 , pour tout n ∈ N∗ alors lim un = (0, 0) et f (un ) = n24 > 0
n→+∞
pour tout n ∈ N . Par ailleurs si on pose vn = n1 , 0 pour tout n ∈ N∗ , on a
∗
2
∗
lim vn = (0, 0) et f (vn ) = 1−n
n4 < 0, pour tout n ∈ N tel que n ≥ 2. Il en résulte
n→+∞
que f n’admet ni minimum ni maximum local en (0, 0).
Soit Γ une partie non vide de Rp . Un vecteur v de Rp est dit tangent à Γ en un point
a de Γ s’l existe un arc paramètré (] − ε, ε[, γ) de classe C 1 tel que γ(Iε ) ⊂ Γ et
hx, yi ≤ kxkkyk,
Preuve g(t) = f (a + te). On sait qu’il existe un voisinage V de 0 tel que g est
dérivable sur V et pour tout t ∈ V , on a :
en particulier :
De f (a) = g 0 (0) = h∇f (a), ei
Équations différentielles
Dans tout ce qui suit, E désigne un espace vectoriel normé de dimension finie.
14.1 Généralités
14.1.1 Terminologie
Ω désigne un ouvert de R × E ou un ensemble de la forme I × E où I est intervalle
de R. La donnée d’une application f : Ω → E permet de parler de l’équation
différentielle (E) y 0 = f (t, y).
Définition 162. On appelle solution de (E) tout couple (J, ϕ) où J est un intervalle
de R et ϕ une application de J vers E dérivable sur J tel que : ∀t ∈ J, (t, ϕ(t)) ∈ Ω
et ϕ0 (t) = f (t, ϕ(t)).
Définition 163. Si (J1 , ϕ1 ) et (J2 , ϕ2 ) sont deux solutions de (E) tel que J2 ⊂ J1
et ϕ1 /J2 = ϕ2 , on dit que (J1 , ϕ1 ) est un prolongement de (J2 , ϕ2 ) ou que cette
dernière est une restriction de (J1 , ϕ1 ).
Définition 164. On appelle solution maximale de (E) toute solution (J, ϕ) tel que
si (J1 , ϕ1 ) est une solution de (E) tel que (J, ϕ) est une restriction de (J1 , ϕ1 ) alors
J = J1 et ϕ = ϕ1 .
361
14.1. GÉNÉRALITÉS Cours deuxiéme année MP
Cγ = {(t, ϕ(t))/t ∈ J}
On dit que (I, ϕ) est solution de l’équation intégrale associée à (E) et (t0 , y0 ) ∈ Ω :
Z t
(E I ) y(t) = y0 + f (u, y(u))du
t0
Une équation différentielle du type y 0 α(y) = β(t) est dite à variable séparables.
Généralement une équation de la forme y 0 a(t)b(y) = c(t)d(y) peut se ramener
b(y)
(moyennant des conditions) à la première. C’est : y 0 α(y) = β(t) avec α(y) = d(y) et
1
β(t) = a(t) , les conditions étant celle qui valident les divisons par d(y) d’une part et
par a(t) d’autre part.
On peut (moyennant des conditions) les ramener à la forme générale d’une équation
différentielle.
On peut parler d’une équation différentielle y 0 = f (t, y) où f (t, y) = u(t)v(y).
14.2.2.2 Exemples
Notons que si t ∈ I alors a(t) ∈ L(E), donc a(t) est un endomorphisme de E. Ainsi
a(t)(y) est en fait la composée de a(t) et l’application y.
Si T est un endomorphisme de E, on convient parfois de noter T.x au lieu de T (x)
pour tout vecteur x de E, l’image de x par T . Ainsi on convient d’écrire l’équation
différentielle comme suit :
(E) y 0 = a(t).y + b(t).
Une solution de (E) est un couple (J, ϕ) avec J un intervalle de R contenu dans I et
ϕ : J → E une application dérivable sur J tel que : ∀t ∈ J, ϕ0 (t) = a(t)(ϕ(t)) +
b(t).
Théorème 83. Si a et b sont continues sur l’intervalle I alors pour tout (t0 , y0 ) ∈
I × E, le problème de Cauchy
0
y = a(t).y + b(t)
(PC)
y(t0 ) = y0
admet une unique solution maximale. De plus cette solution est globale, c’est-à-dire
que son intervalle est I tout entier.
Preuve S(EH) est un sous-espace vectoriel de C 1 (I, E), ensemble des applications
de classe C 1 de I vers E, car :
- l’application nulle θ : I → E; t 7→ θ(t) = 0 est une solution de (EH).
- Si ϕ1 , ϕ2 sont deux solutions de (EH) et α ∈ K alors ϕ = ϕ1 + αϕ2 e par simple
vérification une solution de (EH).
L’application Ψ : S(EH) → E; ϕ 7→ ϕ(t0 ) est un isomorphisme de l’espace vectoriel
S(EH) vers E. En effet, Ψ est une application car si ϕ ∈ S(EH) alors ϕ est bien
définie sur I, en particulier au point t0 . L’application Ψ est linéaire car si ϕ1 , ϕ2 ∈
S(EH) et α ∈ K, alors Ψ(ϕ1 + αϕ2 ) = (ϕ1 + αϕ2 )(t0 ) = ϕ1 (t0 ) + αϕ2 (t0 ) =
Ψ(ϕ1 ) + αΨ(ϕ2 ).
Ψ est bijective car si y ∈ E, on sait d’après le théorème de Cauchy-Lipschitz
linéaire qu’il existe une et une unique solution ϕ de (EH) sur I tel que ϕ(t0 ) = y.
Ainsi S(EH) est un espace vectoriel de dimension n.
Soit φ0 une solution
0particulière de (E). Si φ est une solution de (E) alors pour
φ (t) = a(t).φ(t) + b(t)
tout t ∈ I, on a : , de sorte que la différence ϕ = φ−φ0
φ00 (t) = a(t).φ0 (t) + b(t)
est une solution de (EH). On a bien φ = ϕ + φ0 . Réciproquement si ϕ est une
solution de (EH) et si on pose φ = ϕ + φ0 alors il est aisé de vérifier que φ est une
solution de (E), donc S(E) = φ0 + S(EH)
Un système fondamental de solutions (S.F.S.) de (EH) est Pdonc une base de S(EH) . Si
n
Φ = (ϕ1 , · · · , ϕn ) est un S.F.S. de (EH) alors S(EH) = { k=1 αk ϕk /(α1 , · · · , αn ) ∈ Kn }
La proposition 326 est très utile pour savoir si une famille de solutions est une base en
étudiant uniquement la liberté d’une famille de vecteurs.
Considérons par exemple
0 1
le système différentiel : Y 0 = AY avec A = . Ce qui précède nous dit
−6 5
que l’ensemble S des solutions de ce système est un espace vectoriel de dimension
2. Remarquons que φ1 (t) = (e2t , 2e2t ) et φ2 (t) = (e3t , 3e3t ) sont deux solutions du
système. Par ailleurs, on a φ1 (0) = (1, 2) et φ2 (0) = (1, 3) et det((1, 2), (1, 3)) =
1 6= 0, donc la famille (φ1 (0), φ2 (0)) est libre et (φ1 , φ2 ) est un S.F.S. du système
ci-dessus, donc sa solution générale et ϕ(t) = λφ1 (t) + µφ2 (t); λ, µ ∈ R, soit :
ϕ(t) = (λe2t + µe3t , 2λe2t + 3µe3t ), λ, µ ∈ R.
Une conséquence de cette proposition est de dire que si f est une solution particulière
de (E) alors comme f est de classe C 1 elle s’écrit de façon unique :
X n
f= αk φk
k=1
Alors f est solution de (E), si et seulement si :
∀t ∈ I, f 0 (t) = a(t)f (t) + b(t)
Comme b est continue , elle s’écrit de manière unique :
X
b= bk φk avec ∀k ∈ [[1, n]], bk ∈ C 0 (I, K).
Il en découle que f est solution de (E) si et seulement si :
X n Xn
0
αk φ k = b k φk
k=1 k=1
Par unicité donnée par le théorème ci-dessus, f est solution de (E) si et seulement
si :
f = nk=1 αk Φk
P
(E) Y 0 = AY + B(t)
Y (t) = etA .Λ
avec Λ ∈ Kn .
Preuve Supposons que Y est une solution de (EH) et soit Z définie par Z(t) =
e−tA .Y (t), alors Z 0 (t) = −Ae−tA Y (t) + e−tA .Y 0 (t) = 0, donc Z est constante sur
I, donc il existe Λ ∈ Kn tel que Z(t) = Λ pour tout t ∈ I, ce qui fournit :
∀t ∈ I, Y (t) = etA .Λ
Si Y ∈ C 0 (I, E) alors Y s’écrit de façon unique Y (t) = etA .Θ(t). Y est solution de
(E) si et seulement si Θ de classe C 1 et :
Θ0 (t) = b(t)
Rt
où b(t) = e−tA B(t) pour tout t ∈ I, si et seulement si Θ(t) = Λ + t0 e−uA B(u)du
avec Λ ∈ E, ce qui fournit la solution générale :
Z t
t0 ∈ I
Y (t) = etA Λ + e−uA B(u)du avec
t0 Λ∈E
Dan tout ce qui suit on suppose que A est diagonalisable et que Γ = (Γ1 , · · · , Γn )
est une base de vecteurs propres associée aux valeurs propres λ1 , · · · , λn .
avec les αk : I → K continues : l’existence est garantie par le fait que si (yk ) sont les
composantes de Y dans la base Γ, on pose αk (t) = yk (t)e−λk t pour tout t ∈ I.
On a alors Y est solution de (E) si et seulement si
où les Bk sont les composantes de B dans la base Γ. Ceci fournit la solution générale
de (E) :
n Z t
X t0 ∈ I
Y (t) = µk + Bk (u)e−λk u du eλk t Γk avec
t0 µk ∈ K, ∀k ∈ [[1, n]]
k=1
une solution de l’équation (E) et λ(t) = e−tA Y (t) alors Λ est de classe C 1 sur R,
et comme Y est solution de (E), on a Λ0 (t) = e−tA B(t). En projetant la relation
ci-dessus Λ0 (t) = e−tA .B(t) dans la base Γ = (Γ1 , Γ2 , Γ3 ), il vient, en notant bk (t)
les composantes de B(t) relativement à Γ :
3
X 3
X
0 −tA
Λ (t) = e bk (t)Γk = bk (t)e−tA Γk
k=1 k=1
et comme :
e−tA .Γk = λk e−λk t
on a :
3
X
0
Λ (t) = bk (t)e−tλk Γk
k=1
Les composantes bk (t) sont donnée par la relation :
t
b1 (t) e
−1
b2 (t) = P 0
b3 (t) e3t
où P est la matrice de passage de la base canonique à la base B de sorte que :
1 1 0 1 1 −1
P = 1 0 1 et P −1 = 0 −1 1
1 1 1 −1 0 1
et par suite on obtient :
En intégrant, il vient :
e2t
Γ1 + α2 + et Γ2 + (α3 + et + e−t )Γ3
Λ(t) = α1 + t −
2
avec (α1 , α2 , α3 ) ∈ R3 .
Il en découle que la solution générale de (E) est :
3t
e
Y (t) = α1 et + tet − Γ1 + α2 e2t + e3t Γ2 + (α3 e2t + e3t + et )Γ3
2
avec (α1 , α2 , α3 ) ∈ R3 .ce qui donne en définitif :
avec (α1 , α2 , α3 ) ∈ R3 .
(E)
d Y 0 = A(t).Y + B(t)
\:
(EH) Y 0 = A(t).Y
avec pour tout t ∈ I :
0 1 0 ··· 0
.. . ... ... ... .. 0
.
..
.
.. ... ...
A(t) = . et B(t) = .
0
0
0 ··· ··· 0 1
b(t)
a0 (t) · · · · · · · · · an−1 (t)
3. L’application :
Φ : S(EH) → S(EH)
\ ; y 7→ y
b
est un isomorphisme d’espaces vectoriels.
Grâce à cette proposition on peut ramener l’étude d’une équation différentielle li-
néaire d’ordre n à celle d’un système différentielle linéaire d’ordre n. On obtient en
particulier la version du théorème de Cauchy-Lipschitz associée à ce cas.
On en déduit en particulier la :
où les ak et b sont des applications continues d’un intervalle I vers K. On note S(E) .
Une solution de (E) est une application ϕ : I → K, n fois dérivable tel que :
n−1
!
X
∀t ∈ I, ϕ(n) (t) = ak (t)ϕ(k) (t) + b(t).
k=0
c’est-à-dire :
β1 φ1 + · · · + βn φn = 0
0 0
β1 φ1 + · · · + βn φn = 0
..
(2)0 .
(n−2) (n−2)
+ · · · + βn φn
β1 φ1 =0
(n−t) (n−1)
β1 φ1 + · · · + βn φn =b
14.3.6.2 Cas n = 2
(b) ∃t ∈ I, Wφ (t) 6= 0
4. La solution générale de (E) est donnée par :
ϕ(t) = α1 (t)φ1 (t) + α2 (t)φ2 (t)
avec : λ1 , α2 : I → K des applications de classe C 1 tel que :
0
1 α1 (t)φ1 (t) + α20 (t)φ2 (t) = 0
α1 , α2 ∈ C (I, K) et
α10 (t)φ01 (t) + α20 (t)φ02 (t) = c(t)
Autrement dit :
−c(t)φ2 (t) c(t)φ1 (t)
α10 (t) = et α 0
1 (t) =
φ1 (t)φ02 (t) − φ01 (t)φ2 (t) φ1 (t)φ02 (t) − φ01 (t)φ2 (t)
et par suite la solution générale de (E) est :
Z t Z t
c(u)φ2 (u) c(u)φ1 (u)
y(t) = λ1 − du φ1 (t) + λ2 + du φ2 (t)
t0 W (u) t0 W (u)
avec :
∀u ∈ I, W (u) = φ1 (u)φ02 (u) − φ01 y(u)φ2 (u)
t ∈I
0
λ1 , λ2 ∈ K
Méthode pour la recherche d’une deuxième solution de l’équation homo-
gène (appelée : méthode de descente de degré).
On considère l’équation différentielle homogène :
(EH) : y 00 = a(t)y 0 + b(t)y
où a, b : I → K continues, et on suppose qu’elle admet une solution φ1 tel que :
∀t ∈ I, φ1 (t) 6= 0
Posons y = zφ1 alors :
y 0 = z 0 φ1 + zφ01 .
y 00 = z 00 φ1 + 2z 0 φ01 + zφ001
De y 00 = ay 0 + by on déduit :
z 00 φ1 + 2z 0 φ01 + zφ001 = az 0 φ1 + azφ01 + bzφ1
Or φ001 =, donc :
z 00 φ1 + 2z 0 φ01 + zaφ01 + zbφ1 = az 0 φ1 + azφ01 + bzφ1
Finalament :z 00 φ1 + 2z 0 φ01 = az 0 φ1 donc en posant w = z 0 , il vient :
0 aφ1 − 2φ01
w = w
φ1
C’est une équation différentielle de premier ordre qu’on peut résoudre facilement,ce
qui permet de déterminer z donc y donc une seconde solution φ2 = y de l’équation
différentielle (EH)
Dans tout ce qui suit n est un entier naturel tel que n ≥ 2 , I est un intervalle de R et
b = I → K est une application continue sur I. On considère l’équation différentielle :
n−1
X
(n)
(E) : y = ak y (k) + b(t)
k=0
Théorème 91. Toute solution de (EH) est une application de classe C ∞ de I vers
K, autrement dit :
S(EH) ⊂ C ∞ (I, K)
Preuve Si y est une solution de (EH) alors y est de classe C n par définition. Une
récurrence immédiate permet de prouver que y est de classe C k pour tout k ≥ n.
Soit D l’application de C ∞ (I, K) vers C ∞ (I, K) défini par D(f ) = f 0 pour tout
f ∈ C ∞ (I, K). Il est clair que l’application D est un endomorphisme de C ∞ (I, K),
par suite si on pose P (X) = X n − n−1 k
P
k=0 ak X , on a P ∈ K[X] et P (D) est aussi
un endomorphisme de C ∞ (I, K).
Preuve Soit y ∈ C∞ (I, K), alors : puisque pour tout k ∈ N on ay (k) = Dk (y), on
a:
n−1
X
y ∈ S(EH) ⇔ y (n)
= ak y (k)
k=0
n−1
X
⇔ Dn (y) = ak Dk (y)
k=0
n−1
X
⇔ (Dn − ak Dk )(y) = 0
k=0
⇔ P (D)(y) = 0
⇔ y ∈ ker(D)
Par récurrence :
Pour k = 0 ça donne g(t) = f (t)e−λt , c’est la définition de g.
Soit k ∈ N tel que la propriété est vraie.
Dk+1 (g)(t) = [D ◦ (D − λ Id)k − λ(D − λ Id)k ](f )(t)e−λt = (D − λ Id)k+1 (f )(t)e−λt
Il en découle que f ∈ ker(D − λ Id)m ⇔ Dm (g) = 0 ⇔ g ∈ C ∞ (I, K) ∩ Km−1 [t].
(t 7→ tj eλk t ) 1≤k≤s
0≤j≤mk −1
avec µj ∈ R et λk ∈ C\R tel que I m(λk ) > 0 et les (µj )j∈[[1,r]] et les (λk =
αk + iβk )k∈[[1,s]] deux à deux distinctes alors un système fondamentale de solutions
de (EH) est :
Fonctions holomorphes
15.1 Généralité
Si E est un C−espace vectoriel on peut le considérer aussi comme un R− espace
vectoriel pour la même loi interne et la restriction de la loi externe. Si de plus E
est de dimension finie n comme C−espace vectoriel, il est de dimension 2n comme
R−espace vectoriel. On notera dimC (E) et dimR (E) les deux dimensions respectives.
On notera aussi LC (E) et LR (E) les espaces respectifs des endomorphismes de E
dans chacun des cas respectifs.
On remarque que LC (E) ⊂ LR (E) mais l’inclusion réciproque n’a pas lieu. On peut
cependant caractériser plus simplement une application C− linéaire si on sait déjà
qu’elle est linéaire.
∀x ∈ E, f (ix) = if (x)
383
15.2. FONCTIONS HOLOMORPHES Cours deuxiéme année MP
n
X n
X n
X
f (iu) = f (izk ek ) = izk f (ek ) = i f (zk ek ) = if (u)
k=1 k=1 k=1
15.2.1 Convention
On rappelle que ϕ : R2 → C, (x, y) 7→ x + yi est un isomorphisme de R −
espace vectoriel, et que si on note Ũ = ϕ−1 (U ) et f˜ : Ũ → C l’application f˜ =
f ◦ ϕ−1 , définie par f˜(x, y) = f (x + yi) pour tout (x, y) ∈ Ũ , alors on pourra identi-
fier quand elles existent les dérivées partielles de f et f˜ de sorte que, si ã = ϕ−1 (a) :
∂ f˜ ∂f ∂ f˜ ∂f
(ã) = (a) = D1 f (a) et (ã) = (a) = Di f (a)
∂x ∂x ∂y ∂y
c’est à dire les dérivée suivant les vecteurs de la base canonique (1, i) considéré
comme R−espace vectoriel.
Preuve En effet d’après la proposition 2 et compte tenu du fait que (i) est une
base de C, on a df (a) est C−linéaire si et seulement si df (a)(i) = idf (a)(1). Or
df (a)(1) = ∂f ∂f
∂x (a) et df (a)(i) = ∂y (a), ce qui prouve le résultat.
∀h ∈ C, df (a)(h) = f 0 (a)h
Ainsi :
Définition 169. On dit que f est holomorphe sur U si f est C− dérivable sur U
et f 0 est continue sur U.
∂f ∂f
Rappelons que f est de classe C 1 sur U si les dérivées partielles ∂x et ∂y existent et
sont continues sur U , ce qui donne :
Preuve En effet, si f est holomorphe sur U alors elle est différentiable sur U
et ∂f 0 ∂f 0
∂x = f et ∂y = if montre que les dérivées pareilles sont continues sur U .
réciproquement si f est de classe C 1 et vérifie les conditions de Cauchy-Riemann
alors f est différentiable et vérifie les conditions de Cauchy-Riemann donc elle est
C− dérivable. Or f 0 = ∂f 0
∂x , donc f est continue sur U.
1 f
Si de plus g(a) 6= 0 alors g et g sont C-dérivables au point a et :
0
1 (a) = − g0 (a)2
g 0 (g(a))
f (a) = f (a)g(a)−f (a)g0 (a)
0
g (g(a))2
Il en découle que :
∂(g ◦ f )
(a) = Di (g ◦ f )(a)
∂y
= d(g ◦ f )(a)(i)
= dg(f (a))(df (a)(i))
∂f
= dg(f (a)) (a)
∂y
∂f
Comme f vérifie les conditions de Cauchy-Riemann, on a : ∂y (a) = i ∂f
∂x (a) et par
suite :
∂(g ◦ f ) ∂f
(a) = dg(f (a)) i (a)
∂y ∂x
∂f
= idg(f (a)) (a)
∂x
= idg(f (a))(df (a)(1))
= id(g ◦ f )(a)(1)
∂(g ◦ f )
= i (a)
∂x
Ainsi on a démontré que g ◦ f est différentiable au point a et elle vérifie les CCR
au pont a , donc g ◦ f est C−dérivable au point a.
Finalement, on a :
0 ∂(g ◦ f ) ∂f
(g ◦ f ) (a) = (a) = dg(f (a)) (a) = dg(f (a))(f 0 (a)) = g 0 (f (a))f 0 (a)
∂x ∂x
Rappelons que d’après la proposition 332 on a : ∀h ∈ C, dg(f (a))(h) = g 0 (f (a)h
Définition 170. On dit que f est analytique sur U si pour tout a ∈ U il existe
ra > 0 et une suite (αn ) ∈ CN tel que ∆a,ra ⊂ U et :
+∞
X
∀z ∈ ∆a,ra , f (z) = αn (z − a)n
n=0
Cela revient à dire que h 7→ f (a + h) qui est bien définie sur un voisinage de 0 est
développable en série entière à l’origine ou tout simplement que f est développable
en série entière au voisinage de tout point de U .
Exemples On donne les exemples suivants :
1. f (z) = ez est analytique sur C ; en effet, pour tout a ∈ C et tout h ∈ C, on a :
+∞
P ea n
a+h a h a+h
e = e e , donc : e = n! h
n=0
2. Si an z n est une série entière de rayon de convergence R ∈ R∗+ alors la fonction
P
+∞
an z n est analytique sur le disque de convergence ∆R .
P
f définie par f (z) =
n=0
En effet Soit z0 ∈ ∆R et soit r = R − |z0 | et h ∈ ∆r , alors z0 + h ∈ ∆R et :
+∞ +∞ X n +∞ +∞
X
n
X n n−k k X X
f (z0 + h) = an (z0 + h) = an z0 h = unk
n=0 n=0 k=0
k n=0 k=0
valable pour tout h ∈ C tel que |h| < R − |z0 |. Notons que si R = +∞ ce
résultat est valable pour tout h ∈ C.
Définition 171. On dit que f est infiniment C−dérivable sur U si f est holomorphe
si pour tout n ∈ N∗ , si l’application f (n) existe alors f (n) est holomorphe sur U .
Remarque On verra par la suite que si f est holomorphe alors f est infiniment
dérivable, donc la définition 171 n’est que provisoire.
où
n−1
X
∗
∀n ∈ N , ∀z ∈ ∆z0 ,r , un (z) = ak z k z0n−1−k
k=0
de sorte que |un (z)| ≤ n|an |ρn−1 , et P n|an |ρn−1 est conver-
P
comme la P série
gente(Rappelons que les P séries entières an zn et nan z n−1 ont le même rayon
de convergence), la série un converge normalement donc uniformément sur ∆z0 ,r
, et par suite
+∞
f (z) − f (z0 ) X
lim = an nz0n−1
z→z0 z − z0 n=1
donc f est C−dérivable au point z0 et
+∞
X
0
f (z) = nan z0n−1
n=1
On sait par ailleurs que f est continue sur son disque de convergence, donc f est
holomorphe sur ∆R .
Preuve Le corollaire 25 nous donne f (p) (0) = p!ap , d’où la première égalité.
Pour la seconde on a :
X+∞
it
f (re ) = an rn eint ,
n=0
donc :
+∞
X +∞
X
−ipt it n i(n−p)t
e f (re ) = an r e = fn (t)
n=0 n=0
où
fn (t) = an rn ei(n−p)t ,
est le terme général d’une série convergente, ce qui valide l’intégration terme à
terme. Compte tenu de :
Z 2π
0 si n 6= p
fn (t) dt =
0 2πap rp si n = p
on a : Z 2π
e−ipt f (reit ) dt = 2πap rp ,
0
d’où la valeur ci-dessus de ap .
Théorème 94. Soit f : U → C une fonction analytique sur U , alors f est infiniment
C−dérivable sur U . Si z0 ∈ U et R ∈ R∗+ et (an ) une suite de complexes tel que :
+∞
X
∀z ∈ ∆z0 ,R , f (z) = an (z − z0 )n
n=0
on a :
2π
f (p) (z0 )
Z
1
∀r ∈]0, R[, ∀p ∈ N, ap = = e−ipt f (z0 + reit ) dt
n! 2πrp 0
D’après le corollaire 25, g est infiniment dérivable sur ∆R . Donc par composition,
on a f (p) est holomorphe sur ∆R et :
15.3.2.4 La réciproque
Lemme 6. Si W1 et W2 sont deux ouverts disjoints de [0, 1] tel que W1 ∪W2 = [0, 1]
et W1 6= ∅ et W2 6= ∅ alors W1 = [0, 1] ou W2 = [0, 1].
Preuve Supposons que [0, 1] = W1 ∪W2 et W1 et W2 deux ouverts de [0, 1] tel que
{W1 , W2 } est une partition de [0, 1]. Comme 1 ∈ [0, 1], on a 1 ∈ W1 ou 1 ∈ W2 .
Supposons par exemple que 1 ∈ W2 alors 1 6∈ W1 . Comme W1 est une partie non
vide majorée de R, elle admet une borne supérieure α dans R. Si α = 0 on aurait
W1 = {0}, or {0} n’est pas un overt de [0, 1] car cela signifie qu’il existe η > 0
tel que ] − η, η[∩[0, 1] = {0}, ce qui n’est pas vrai car on aurait [0, η 0 [⊂ {0} avec
η 0 = min(η, 1). Donc α > 0. Si α 6∈ W2 , par ouverture, il existe ε > 0 tel que
α − ε, α[⊂ W2 , donc on aurait W1 ⊂ [0, α − ε], ce qui contredit la définition de α
comme borne supérieur de W1 , et comme 1 ∈ W2 , on a α < 1, donc il existe r > 0
tel que [α, α + r[⊂ W1 , e qui contredit la définition de α comme borne supérieur
de W1 .
Lemme 7. Soit Ω un ouvert connexe par arcs de C, alors les eules parties de Ω à
la fois ouvertes et fermées dans Ω sont Ω et ∅.
A 6= ∅ et A 6= Ω,
alors il existe (u, v) ∈ Ω2 tel que u ∈ A et v 6∈ A. Comme Ω est connexe par arcs,
il existe un chemin γ : [0, 1] → Ω tel que γ([0, 1]) ⊂ Ω et γ(0) = u et γ(1) = v.
Posons :
W1 = γ −1 (A) et W2 = γ −1 (Ω\A)
γ est continue et A ouverte donc W1 est un ouvert de [0, 1] ; par ailleurs A est un
fermé de Ω donc Ω\A est un ouvert de Ω et par suite W2 est un ouvert de [0, 1].
On a W1 6= ∅ et W2 6= ∅ car comme γ(0) = u ∈ A et γ(1) = v ∈ Ω\A, on a
0 ∈ W1 et 1 ∈ W2 . Finalement W1 ∩ W2 = ∅, ceci contredit le lemme 6. D’où le
lemme 7 est démontré.
∀n ∈ N, f (n) (z0 ) = 0
Théorème 97. (Principe des zéros isolés :) Soit Ω un ouvert non vide
connexe par arcs de C. Si f : Ω → C est une fonction holomorphe non nulle sur Ω
alors pour tout z0 ∈ Ω tel que f (z0 ) = 0, il existe r > 0 tel que B(z0 , r) ⊂ Ω et z0
est l’unique zéro de f sur B(z0 , r).
Preuve Comme f est non nulle, par le lemme 8, il existe un entier naturel n tel
que f (n) (z0 ) 6= 0. Soit p = min{n ∈ N/f (n) (z0 ) 6= 0}. Comme f est analytique, et
compte tenu de la définition de p, il existe r0 > 0 tel que :
+∞ (n)
0
X f (z0 )
∀z ∈ B(z0 , r ), f (z) = (z − z0 )n = (z − z0 )p g(z)
n=p
n!
avec
+∞ (n)
0
X f (z0 )
∀z ∈ B(z0 , r ), g(z) = (z − z0 )n−p
n=p
n!
On a g est continue au point z0 et g(z0 ) 6= 0, donc il existe r > 0 tel que g(z) 6= 0
sur la boule ouverte B(z0 , r). Donc z0 est ’unique zéro de f sur la boule ouverte
B(z0 , r).
Preuve Cela revient à prouver que si f est nulle sur U et F holomorphe sur Ω
et prolonge f sur Ω, alors F est nulle. Si F n’est pas nulle, soit z0 ∈ U ; par le
théorème 97 (principe des zéros isolés), ci-dessus, il existe r > 0 tel que z0 soit
l’unique zéro de F sur B(z0 , r), donc sur U ∩ B(z0 , r), ce qui est absurde car
B(z0 , r) ∩ U étant un ouvert non vide de C, il est infini et F y serait nulle car nulle
sur U .