Académique Documents
Professionnel Documents
Culture Documents
Cours de mathématiques
1 Nombres complexes 5
1.1 Conjugué, module, argument . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Interprétation géométrique et forme exponentielle . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Équation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Formules de trigonométrie, duplication, linéarisation . . . . . . . . . . . . . . . . . . . . . 10
1.5 Racines n-ièmes de l’unité. Hors-programme . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Révisions d’analyse 13
2.1 Suites et séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Déterminer le terme général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.2 Déterminer la nature et en cas de convergence la limite . . . . . . . . . . . . . . . 13
2.2 Fonctions de la variable réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2 Dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.3 Intégration sur un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3 Fonctions polynômiales 17
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 Propriétés analytiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3 Compléments hors programme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.1 Formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.2 Factorisation dans R[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.3 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4 Développements limités 25
4.1 Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2 Définition - Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3 Opérations sur les développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.4 Développements limités et parité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.5 Applications des développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.5.1 Recherche d’équivalents et de limites . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.5.2 Allure locale du graphe d’une fonction - Tangente . . . . . . . . . . . . . . . . . . 29
4.5.3 Recherche d’asymptotes obliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.6 Formulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3
4 TABLE DES MATIÈRES
7 Intégrales généralisées 43
7.1 Intégrales généralisées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
7.2 Propriétés et calcul d’intégrales généralisées . . . . . . . . . . . . . . . . . . . . . . . . . . 44
7.3 Critères de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
7.4 Intégrales de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.5 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
8 Variables à densité 49
8.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
8.2 Transformations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
8.3 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
8.4 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
10 Algèbre bilinéaire 61
10.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
10.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
10.3 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
12 Inégalités en probabilités 73
Chapitre 1
Nombres complexes
Tout nombre complexe z s’écrit de manière unique sous la forme z = x + iy où x et y sont des
réels.
C’est-à-dire : ∀z ∈ C, ∃!(x, y) ∈ R2 , z = x + iy.
x est appelé partie réelle de z et est noté Re(z).
y est appelé partie imaginaire de z et est noté Im (z).
On notera iR l’ensemble des nombres imaginaires purs, {z ∈ C, Re(z) = 0}.
Définition 2
Soit z = x + iy, on appelle conjugué de z le nombre complexe noté z défini par z = x − iy.
Proposition 1
On a ainsi
— Re(z) = z+z
2 — ∀z, z 0 ∈ C, z + z 0 = z + z 0
— Im (z) = z−z
2i — zz 0 = zz 0
— z∈R⇔z=z — z=z
— z ∈ iR ⇔ z = −z — zz = Re(z)2 + Im (z)2 ∈ R+
5
6 CHAPITRE 1. NOMBRES COMPLEXES
— zz = (a + ib)(a − ib) = a2 + b2 .
Définition 3
p √
On appelle module de z le réel positif noté |z| défini par |z| = Re(z)2 + Im (z)2 = zz.
Proposition 2
Soit z ∈ C,
|z| = 0 ⇔ z = 0
Proposition 3
Démonstration. On sait que z 6= 0 implique |z| 6= 0, ainsi, de l’égalité zz = |z|2 , on en déduit z |z|z 2 = 1,
ainsi z 0 = z
|z|2
, d’où l’existence. L’unicité est immédiate.
Remarque. Pour mettre un nombre complexe de la forme z1 sous forme algébrique, il suffit de multiplier
par le conjugué de z au numérateur et dénominateur. On a z1 = |z|z 2 .
On remarque alors que z1 = z1 .
Proposition 4
Soit z ∈ C.
Démonstration. — Re(z)2 ≤ Re(z)2 + Im (z)2 = |z|2 d’où le résultat en prenant la racine carrée.
— Idem.
— Conséquence de z = z.
— Conséquence de zz 0 = zz 0 .
— Conséquence de z1 = z1 .
Proposition 5
Soit z ∈ C.
1
On a |z| = 1 si et seulement z = z
1.2. INTERPRÉTATION GÉOMÉTRIQUE ET FORME EXPONENTIELLE 7
Remarque. L’utilisation du conjugué est très pratique car compatible avec les opérations usuelles et est,
de fait, particulièrement efficace. On la privilégiera au remplacement systématique z = a + ib qui, outre
son manque d’élégance, est source inépuisable d’erreurs de calculs.
Démonstration. 1.
|z + z 0 |2 = (z + z 0 )(z + z 0 ) = |z|2 + zz 0 + zz 0 + |z 0 |2
= |z|2 + |z 0 |2 + 2Re(zz 0 )
Définition 4 (Argument)
Soit z ∈ C, z = a + ib. On appelle argument de z (noté argz) tout réel θ tel que cos θ = √ a
a2 +b2
et sin θ = √ b
a2 +b2
Remarque.
— Si θ est un argument de z, alors tout réel de la forme θ + 2kπ avec k ∈ Z est un argument de z.
— z admet un unique argument dans ] − π, π] appelé argument principal et noté Arg.
Soit (0, →
−
e1 , →
−
e2 ) un repère orthonormé direct. Le point M et
−−→
le vecteur OM de coordonnées (a, b) sont représentés par
le nombre complexe z = a + ib appelé affixe de M (et de
−−→
OM ). Soit r le module de z et θ un argument de z, alors
z = r(cos θ + i sin θ). θ est une mesure de l’angle orienté
→
−\ −−→ −−→
e , OM , r est la norme du vecteur OM
1
Théorème 2
Tout nombre complexe non nul s’écrit sous la forme exponentielle z = reiθ avec r > 0 et θ ∈ R.
On a alors |z| = r et θ est un argument de z.
Proposition 6
Soit z, z 0 ∈ C \ {0}.
— arg(zz0 ) = argz + argz 0
— arg z1 = − arg z
— |z + z 0 | = |z| + |z 0 | ⇔ ∃k ∈ Z, argz = argz 0 + 2kπ
−−→\ −−→
−zC
— AB, CD = arg zzD B −zA
−−→
\ −−→ −zC
— (AB) et (CD) sont parallèles ⇔ (AB, CD) = 0[π] ⇔ zzD B −zA
∈ R∗
zC −zA
— A, B et C sont alignés ⇔ (AB) et (AC) sont parallèles ⇔ zB −zA ∈ R∗
C −zA
— ABC est rectangle en A ⇔ (AB) et (AC) sont perpendiculaires ⇔ zzB −zA ∈ iR
∗
−zC
— (AB) et (CD) sont perpendiculaires ⇔ zzDB −zA
∈ iR∗
√ √
3
√
3
Exemple. z = 3 + i. On a |z| = 2 donc z = 2 2 + i 12 . On cherche θ tel que cos θ = 2 et sin θ = 12 ,
π
π
θ= 6 convient. Donc z = 2ei 6 .
θ − θ0
i(θ+θ 0 )
i(θ−θ 0 ) −i(θ−θ 0 ) i(θ+θ 0 )
=e 2 e 2 +e 2 = 2e 2 cos
2
0 0 0 θ − θ0
θ+θ θ−θ θ+θ
= 2 cos cos + 2i sin cos
2 2 2 2
0
De même pour eiθ − eiθ .
On en déduit les formules de trigonométrie :
θ + θ0 θ − θ0
cos(θ) + cos(θ0 ) = 2 cos cos
2 2
θ + θ0 θ − θ0
0
sin(θ) + sin(θ ) = 2 sin cos
2 2
θ + θ0 θ − θ0
cos(θ) − cos(θ0 ) = −2 sin sin
2 2
θ + θ0 θ − θ0
0
sin(θ) − sin(θ ) = 2 cos sin
2 2
Remarque. On utilise la technique de l’angle moitié lorsqu’on souhaite mettre sous forme exponentielle (ou
trigonométrique) la somme (ou la différence) de deux nombres complexes écrits sous la forme exponentielle.
iπ
À noter que 1 = ei0 et i = e 2 .
10 CHAPITRE 1. NOMBRES COMPLEXES
Théorème 5
cos(a + b) = cos a cos b − sin a sin b sin(a + b) = sin a cos b + sin b cos a
cos(a − b) = cos a cos b + sin a sin b sin(a − b) = sin a cos b − sin b cos a
1
cos a cos b = (cos(a + b) + cos(a − b))
2
1
sin a sin b = (cos(a − b) − cos(a + b))
2
1
sin a cos b = (sin(a + b) + sin(a − b))
2
Linéarisation :
1 + cos(2a) 1 − cos(2a)
cos2 a = sin2 a =
2 2
1.5. RACINES N -IÈMES DE L’UNITÉ. HORS-PROGRAMME 11
On a
Z π Z π
2
2 1 + cos(2t)
2
cos(t) dt = dt
0 0 2
π
π sin(2t) 2
= +
4 4 0
π
=
4
Z π
2 π
De même, sin(t)2 dt = .
0 4
Proposition 10
— ]Un = n
2kπ
— Un = {ei n , k ∈ J0, n − 1K}
— ∀z ∈ Un , |z| = 1 et z = z1 ∈ Un
2π
— U1 = {1}, U2 = {1, −1}, U3 = {1, j, j 2 } avec j = ei 3 , U4 = {1, i, −1, −i}
n−1
Y 2kπ
— zn − 1 = (z − ei n )
k=0
n−1 n−1 2π
X
i 2kπ
X
i 2π
k 1 − ei n n
— Si n ≥ 2, e n = e n = 2π =0
k=0 k=0 1 − ei n
12 CHAPITRE 1. NOMBRES COMPLEXES
Chapitre 2
Révisions d’analyse
Formule d’Abel
Rappel. Soit (an )n∈N et (bn )n∈N deux suites. On a pour tout entier n :
n
X n−1
X
ak (bk+1 − bk ) = an bn+1 − a0 b0 − bk+1 (ak+1 − ak )
k=0 k=0
13
14 CHAPITRE 2. RÉVISIONS D’ANALYSE
Suites adjacentes
Rappel. Soit (un )n∈N et (vn )n∈N deux suites. On dit qu’elles sont adjacentes si elles sont de monotonies
contraires et si lim un − vn = 0.
n→+∞
Deux suites adjacentes convergent vers une même limite.
Croissances comparées
On peut résumer ainsi : pour q > 1, a > 0 : n! >> q n >> na >> (ln n)b
pour q < 1, a > 0 : n! >> na >> (ln n)b >> q n
Séries de références : séries de Riemann, série exponentielle, série géométrique (et ses dérivées)
X 1
Rappel. 1. converge si et seulement si α > 1.
nα
n≥1
X xn
2. ∀x ∈ R, converge et sa somme vaut ex
n!
n≥0
X
3. ∀x ∈] − 1, 1[, xn converge et sa somme vaut 1
1−x
n≥0
X
4. ∀x ∈] − 1, 1[, nxn−1 converge et sa somme vaut 1
(1−x)2
n≥1
X
5. ∀x ∈] − 1, 1[, n(n − 1)xn−2 converge et sa somme vaut 2
(1−x)3
n≥2
Rappel. Soit f une fonction continue sur un intervalle I privé d’un point x0 (x0 peut être au bord de I
ou à l’intérieur). On dit que f est prolongeable par continuité en x0 si lim f (x) existe et est finie.
x→x0
Théorème de la bijection
Rappel. Soit f : I → J une fonction continue strictement monotone. On a alors : f est une bijection de
f (I) vers I, et sa réciproque f −1 est continue et de même monotonie que f .
2.2.2 Dérivabilité
Calcul de dérivées (en particulier composition et réciproque)
Formule de Leibniz
Rappel. Soit f et g deux fonctions de classe C n sur I. On a alors, pour tout x ∈ I, (f g)(n) (x) =
n
X n (k)
f (x)g (n−k) (x).
k
k=0
Rappel. Soit f une fonction continue sur [a, b] et dérivable sur ]a, b[. On a d’une part :
f (b) − f (a)
∃c ∈]a, b[, f 0 (c) =
b−a
Si de plus on a : ∃m, M ∈ R, ∀x ∈]a, b[, m ≤ f 0 (x) ≤ M alors
f (b) − f (a)
m≤ ≤M
b−a
Pour s’entraı̂ner. Exercice 4
En général, on dérive selon cet ordre : arctan, ln, polynôme, exponentielle, fonction trigonométrique
(ALPET).
Changement de variable
Fonctions polynômiales
3.1 Définition
Définition 1
Soit n ∈ N∗ , (a0 , a1 , . . . , an ) ∈ Rn+1 \ {0, 0, . . . , 0}, on définit un polynôme non nul P par
n
X
n
P (X) = an X + an−1 X n−1 + . . . + a0 = ak X k où n = max{k ∈ N, ak 6= 0}.
k=0
X est appelé l’indéterminée.
n le degré de P , n = deg P et an le coefficient dominant.
0 désigne le polynôme nul, par convention deg 0 = −∞
On note R[X] l’ensemble des polynômes réels.
On note Rn [X] l’ensemble des polynômes réels de degré inférieur ou égal à n.
Remarque.
— les polynômes de degré 0 sont appelés les polynômes constants
— les polynômes de la forme ak X k avec ak 6= 0 sont appelés monômes
— les polynômes dont le coefficient dominant est égal à 1 sont appelés polynômes unitaires
Proposition 1
Théorème 1
17
18 CHAPITRE 3. FONCTIONS POLYNÔMIALES
Proposition 2
Proposition 3
k
X
ck = ai bk−i
i=0
Proposition 4
P Q = 0 si et seulement si P = 0 ou Q = 0.
Méthode
On confondra dans cette partie polynôme réel et fonction polynomiale. On identifiera donc
n
X P : R −→ R
P (X) = ak X k et .
k=0 x 7−→ P (x)
3.2. PROPRIÉTÉS ANALYTIQUES 19
Proposition 5
Définition 3
Soit P une fonction polynômiale. On dit qu’un réel x0 est une racine de P si P (x0 ) = 0.
Proposition 6
Démonstration. D’après la proposition sur les limites en l’infini, comme le degré est impair, les limites en
l’infini sont opposées. Le théorème des valeurs intermédiaires (les fonctions polynômiales sont continues)
nous assure ainsi l’existence d’une racine.
Proposition 7
Si x0 est une racine d’une fonction polynômiale P , alors on peut factoriser P (x) par (x − x0 ).
Définition 4
2
Exemple. 6X − 12 divise X 3 − 8, en effet X 3 − 8 = (X − 2)(X 2 + 2X + 4) = (6X − 12)( X6 + X
3 + 23 )
20 CHAPITRE 3. FONCTIONS POLYNÔMIALES
Définition 5
n n
X X k!
P (j) (X) = k(k − 1) . . . (k − j + 1)ak X k−j = ak X k−j
(k − j)!
k=j k=j
n−j n−j
X X (k + j)!
= (k + j)(k + j − 1) . . . (k + 1)ak+j X k = ak+j X k
k!
k=0 k=0
Proposition 8
n
P (j) (0)
X
On en déduit que si P (X) = ak X k alors ∀j ∈ J0, nK, aj = j! .
k=0
Définition 6
Théorème 2
Soit P ∈ R[X], a ∈ R, α ∈ N∗ , si a est une racine d’ordre α de P , alors a est racine d’ordre
α − j de P (j) , ∀j ∈ J1, α − 1K.
Théorème 3
Démonstration. Soit a une racine de multiplicité α de P . On sait qu’il existe un polynôme Q tel que
pour tout réel x, P (x) = (x − a)α Q(x) avec Q(a) 6= 0. Comme Q est une fonction polynômiale, elle est
3.3. COMPLÉMENTS HORS PROGRAMME 21
en particulier continue, donc il existe un réel strictement positif ε tel que pour tout x appartenant à
l’intervalle ]a − ε, a + ε[, Q(x) ne change pas de signe. Ainsi, si α est pair, P ne change pas de signe au
voisinage de a, si α est impair, P change de signe.
Corollaire 1
Théorème 4
Démonstration.
n
X
P (X) = ak (X − x0 + x0 )k
k=0
n k
j k−j k
X X
= ak (X − x0 ) x0
j
k=0 j=0
n k
k!
(X − x0 )j xk−j
X X
= ak 0
j! − k − j)!
k=0 j=0
n n
k!
ak (X − x0 )j xk−j
XX
= 0
j!(k − j)!
j=0 k=j
n n
(X − x0 )j X k!
ak xk−j
X
= 0
j! (k − j)!
j=0 k=j
n
X (X − x0 )j (j)
= P (x0 )
j!
j=0
22 CHAPITRE 3. FONCTIONS POLYNÔMIALES
de d’Alembert-Gauss.
Tout polynôme de C[X] non constant admet au moins une racine.
p
Y
Conséquence : tout polynôme P de C[X] peut s’écrire sous la forme λ (X − xk )αk avec
k=1
p
X
αk = deg P
k=1
Proposition 9
Démonstration. On montre que si x0 est une racine de P alors x¯0 est une racine de P , cela suffit car on
peut ensuite appliquer ce résultat sur P 0 , P (2) , . . . , P (α−1) .
n
X
P (x0 ) = ak xk0 = 0
k=0
n
X n
X
k
P (x¯0 ) = ak x¯0 = ak xk0 = 0
k=0 k=0
Corollaire 2
Démonstration. unicité : si A = BQ1 + R1 = BQ2 + R2 avec deg R1 < deg B et deg R2 < deg B alors
R1 − R2 = B(Q1 − Q2 ).
Si Q1 −Q2 6= 0 alors deg B(Q1 −Q2 ) = deg B+deg (Q1 −Q2 ) ≥ deg B. Or deg (R1 −R2 ) ≤ max(deg R1 , deg R2 ) <
3.3. COMPLÉMENTS HORS PROGRAMME 23
Proposition 10
Proposition 11
Soit A ∈ R[X], a ∈ R.
X − a divise A si et seulement si a est une racine de A.
Soit x1 , x2 , . . . , xn des éléments distincts de R.
(X − x1 )(X − x2 ) . . . (X − xn ) divise A si et seulement si x1 , x2 , . . . , xn sont des racines de A.
24 CHAPITRE 3. FONCTIONS POLYNÔMIALES
Proposition 12
Développements limités
n
X f (k) (a)
Démonstration. On montre le résultat par récurrence. On pose P(n) : “f (b) = (b − a)k +
k!
k=0
b
(b − t)n (n+1)
Z
f (t)dt ”.
a n!
L’initialisation est immédiate.
b
(b − t)n (n+1)
Z
Soit n ∈ N, on suppose que P(n) est vraie. On fait une intégration par parties de f (t)dt
a n!
n+1 (b−t)n
en remarquant que − (b−t)
(n+1)! est une primitive de n! . On obtient
b b Z b
(b − t)n (n+1) (b − t)n+1 (n+1) (b − t)n+1 (n+2)
Z
f (t)dt = − f (t) + f (t)dt
a n! (n + 1)! a a (n + 1)!
Z b
(b − a)n+1 (n+1) (b − t)n+1 (n+2)
= f (a) + f (t)dt
(n + 1)! a (n + 1)!
D’où le résultat.
25
26 CHAPITRE 4. DÉVELOPPEMENTS LIMITÉS
Démonstration. On part de la formule de Taylor-Lagrange avec reste intégral. Comme f ∈ C n+1 , f (n+1)
est continue sur [a, b] et donc y est bornée par un certain M ∈ R+ . On obtient ainsi :
n b b
f (k) (a) (b − t)n (n+1) (b − t)n (n+1)
X Z Z
k
f (b) − (b − a) = f (t)dt ≤ f (t) dt
k! a n! a n!
k=0
b
(b − t)n M |b − a|n+1
Z
≤M dt =
a n! (n + 1)!
En particulier, pour a = 0
n
X f (k) (0)
f (x) = xk + o(xn ))
0 k!
k=0
n
X f (k) (a) M |x − a|n+1
f (x) − (x − a)k ≤ , où M = max f (n+1) (t)
k! (n + 1)! t∈[a,b]
k=0
M |x−a|n+1
or (n+1)! = o ((x − a)n ) d’où le résultat.
a
x −x
Exemple. Soit f la fonction définie sur R par ∀x ∈ R, f (x) = e +e2 que l’on appelle fonction cosinus
hyperbolique, notée ch. On peut rapidement voir que ∀k ∈ N, f (2k) (0) = 1 et f (2k+1) (0) = 0. On a ainsi,
∀n ∈ N
n
X x2k
+ o x2n
f (x) =
(2k)!
k=0
4.2. DÉFINITION - PREMIÈRES PROPRIÉTÉS 27
Définition 1
Remarque. — L’égalité précédente est valable au voisinage de a dans un ensemble A où f est définie,
c’est à dire un ensemble de la forme ]a − α, a + α[\a, ou ]a − α, a[ ou ]a, a + α[.
— Pour tout p ∈ N, pour tout k ∈ J0, pK, on a o ((x − a)p ) = (x − a)k o (x − a)p−k . L’égalité étant
valable dans les deux sens !
Théorème 4
Théorème 5
(x − a)2 (x − a)n+1
o (x − a)n+1
f (x) = f (a) + a0 (x − a) + a1 + . . . + an
2 n+1
Remarque. ATTENTION ! ! ! ! ! Il se peut fort bien que f admette un développement limité au voisinage
de a et que f 0 n’en admette pas ! ! !
Soit f : R → R définie par f (x) = x + x3 sin x12 et f (0) = 0.
Remarque. Obtenir le manière effective le DL d’une somme ou d’un produit ne pose pas de problème
particulier. Pour ce qui est de l’obtention effective du DL d’un quotient la stratégie est la suivante : On
1 1
utilise le DL de 1−u ou de 1+u et on se ramène à un produit.
28 CHAPITRE 4. DÉVELOPPEMENTS LIMITÉS
Proposition 1
Soit f une fonction de R dans R définie sur un intervalle de la forme ] − α, α[ avec α > 0 et
admettant un développement limité à l’ordre n au voisinage de 0 donné par f (x) = P (x)+o(xn )
où P ∈ Rn [X]. Alors x 7→ f (−x) admet un DL d’ordre n au voisinage de 0 donné par f (−x) =
P (−x) + o(xn ).
En particulier si f est paire alors P est paire aussi (ce qui signifie que ses coefficients d’indice
impairs sont nuls). De même, si f est impaire alors P est impaire aussi (ce qui signifie que ses
coefficients d’indice pair sont nuls).
Nous savons que l’équivalence des fonctions n’est pas compatible avec la somme. Aussi, pour chercher
un équivalent ou la limite d’une somme complexe, il convient de passer par les développements limités.
Une fois obtenu le développement limité, on utilise la proposition suivante.
Proposition 2
f (x) ∼ ap xp .
x→0
Remarque. On doit donc “pousser le développement limité” jusqu’à ce qu’on obtienne un terme non nul
dans la partie principale. Il est conseillé de réfléchir préalablement à l’ordre du DL que l’on va écrire.
1
Pour déterminer la limite ou un équivalent d’une fonction en ±∞, on pose X = et on utilise des
x
développements limités au voisinage de 0. On procède de même avec le terme général d’une suite.
4.5. APPLICATIONS DES DÉVELOPPEMENTS LIMITÉS 29
Le terme suivant non nul dans le DL donne l’allure de la courbe au voisinage du point d’abscisse x0 .
Proposition 4
Corollaire 1
f (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )2 + o((x − x0 )2 ).
f (x) = a0 x + a1 + ε(x).
1
Pour pouvoir utiliser les développements limités, on pose X = ; l’égalité précédente équivaut à
x
1 a0 1 1 1
f = + a1 + ε ou Xf = a0 + a1 X + Xε = a0 + a1 X + o(X).
X X X X X
1
Il s’agit donc d’un DL de Xf au voisinage de 0.
X
30 CHAPITRE 4. DÉVELOPPEMENTS LIMITÉS
Si on a un terme de plus dans le développement limité, il donnera la position de la courbe par rapport
à l’asymptote.
Proposition 5
4.6 Formulaire
Les développements limités suivants sont à connaı̂tre par coeur sans hésitation. Normalement il ne
sera jamais demandé de développements limités au delà de l’ordre 3, c’est pourquoi la formule générale
est donnée et dessous l’ordre 3.
Tous les développements limités ci-dessous sont au voisinage de 0.
n
xk n
xk (−1)k+1
X
exp(x) = + o(xn ) X
k! ln(1 + x) = + o(xn )
k=0 k
k=1
x2 x3
=1+x+ + + o(x3 ) x2 x3
2 3! =x− + + o(x3 )
2 3
n
x2k+1 (−1)k n
x2k (−1)k
X
sin(x) = + o(x2n+1 ) X
(2k + 1)! cos(x) = + o(x2n )
k=0 (2k)!
k=0
x3
=x− + o(x3 ) x2
3! =1− + o(x3 )
2
k−1
Y
xk (α − j)
n
α
X j=0
(1 + x) = + o(xn )
k!
k=0
α(α − 1)x2 α(α − 1)(α − 2)x3
= 1 + αx + + + o(x3 )
2 3!
En particulier :
4.6. FORMULAIRE 31
k−1
Y
1
xk −j
√ n 2
X j=0
1+x= + o(xn )
k!
k=0
x x2 x3
=1+ − + + o(x3 )
2 8 16
n
1 X
= xk (−1)k + o(xn )
1+x
k=0
= 1 − x + x2 − x3 + o(x3 )
n
1 X
= xk + o(xn )
1−x
k=0
= 1 + x + x2 + x3 + o(x3 )
32 CHAPITRE 4. DÉVELOPPEMENTS LIMITÉS
Chapitre 5
33
34 CHAPITRE 5. RÉVISIONS D’ALGÈBRE LINÉAIRE
1. On montre que F ∩ G = {0E } puis que tout élément de E s’écrit comme la somme d’une élément
de F et d’un élément de G, très souvent par analyse synthèse (mais parfois cette décomposition se
trouve immédiatement !)
2. En utilisant la dimension : si dim F + dim G = dim E, alors il suffit de montrer que F ∩ G = {0E }
ou bien que tout élément de E s’écrit comme la somme d’un élément de F et d’un élément de G.
3. En dimension finie : la concaténation d’une base de F et d’une base de G donne une base de E.
Théorème 1
Formule de Grassman
Si E et F sont deux sous-espaces vectoriels de dimension finie d’un même espace vectoriel alors
L’ensemble des applications linéaires de E dans F est noté L(E, F ), c’est un espace vectoriel. Si E et F
sont de dimension finie, alors L(E, F ) aussi dim L(E, F ) = dim E × dim F .
Dans ce qui suit, f est une application linéaire de E dans F
Tout savoir sur : le noyau
Ker f = {x ∈ E, f (x) = 0F }.
Déterminer un noyau peut amener à résoudre un système linéaire.
On l’équivalence : Ker f = {0E } ⇔ f est injective.
Tout savoir sur : l’image
Im f = {y ∈ F, ∃x ∈ E, f (x) = y}.
Déterminer une image est simple si on dispose d’une base (e1 , . . . en ) de E : Im f = Vect (f (e1 ), . . . f (en ))
On a l’équivalence : Im f = F ⇔ f est surjective.
Théorème 2
Théorème du rang
Soit f ∈ L(E, F ) où E et F sont de dimension finie. On a alors
5. les projecteurs. Un projecteur est un endomorphisme p vérifiant p◦p = p. On a ainsi Ker p⊕Im p =
E. On parle alors d’un projecteur sur son image parallèlement à son noyau.
6. les symétries. Une symétrie est un endomorphisme s vérifiant s ◦ s = idE . On a ainsi Ker (s +
idE ) ⊕ Ker (s − idE ) = E. On parle alors d’une symétrie par rapport à Ker (s − idE ) parallèlement
à Ker (s + idE ).
On rappelle que si f ∈ L(E, F ) et G est un sous-espace vectoriel de E, alors f|G désigne la restriction
de f sur G. Nous verrons qu’il est très utile de trouver des sous-espaces vectoriels G stables, c’est-à-dire
Im f|G ⊂ G.
Soit f ∈ L(E, F ) on appelle matrice de f dans les bases BE et BF la matrice de Mn,p (K) notée
p
X
MatBF ,BE définie par (MatBF ,BE )i,j = ai,j où ∀i ∈ J1, pK, f (ej ) = ai,j yi
i=1
Remarque. Pour un endomorphisme, on peut considérer MatBE (f ) qui est une matrice carrée.
Pour une forme linéaire φ, une matrice de φ sera une matrice ligne.
Définition 2
Théorème 3
Soit E, F et G trois R-ev de dimension finie munis respectivement des bases BE ,BF et BG .
Soit f ∈ L(E, F ) et g ∈ L(F, G), alors
Proposition 1
Définition 3
Proposition 2
Changement de base.
Pour écrire la matrice de f de B2 dans B2 à partir de la matrice de f de B1 dans B1 , on a la
formule suivante :
MatB2 (f ) = PB2 ,B1 MatB1 (f )PB1 ,B2 )
Définition 4
On dit que A, B ∈ Mn (R) sont semblables si elles sont chacune la matrice d’une même appli-
cation f dans une base B1 et respectivement dans une base B2 . Autrement dit, il existe une
matrice inversible P telle que A = P BP −1 .
Définition 5
n
X
On considère l’application trace telle que ∀A = (ai,j )1≤i,j≤n ∈ Mn (R), tr(A) = ai,i .
i=1
Proposition 3
La trace est une forme linéaire (les matrices de trace nulle forment donc un hyperplan de
Mn (R)).
On a tr(AB) = tr(BA), ainsi deux matrices semblables ont même trace.
Définition 6
On dit que deux matrices A, B ∈ Mn (R) sont équivalentes s’il existe P, Q ∈ G`n (R) telles que
A = P BQ.
Proposition 4
Dans tout ce chapitre, n est un entier fixé non nul, f un endomorphisme de Rn (ou de E, un espace
vectoriel de dimension n), et A une matrice carrée d’ordre n.
Définition 1
Soit λ ∈ R, on dit que λ est une valeur propre de f (respectivement de A), s’il existe x ∈ E,
x 6= 0E tel que f (x) = λx (respectivement, il existe X ∈ Mn,1 (R), X 6= 0Mn,1 (R) tel que
AX = λX).
Définition 2
Définition 3
Exemple. Soit f ∈ L(R2 [X]) telle que pour tout P ∈ R2 [X], f (P ) = (X −1)P 0 +P . Calculer f (1), f (X −1)
et f ((X − 1)2 ). Que peut on en déduire ?
On a f (1) = 1, f (X − 1) = 2(X − 1) et f ((X − 1)2 ) = 3(X − 1)2 . On en déduit que 1 est une valeur propre
de f et le polynôme constant égal à 1 est un vecteur propre associé à la valeur propre 1. De même 2 et
3 sont des valeurs propres et X − 1 est un vecteur propre associé à 2 et (X − 1)2 est un vecteur propre
associé à 3.
37
38 CHAPITRE 6. RÉDUCTION DES ENDOMORPHISMES
Définition 4
Proposition 1
λ ∈ Sp (f ) ⇔ Eλ (f ) 6= {0E }
⇔ f − λidE n’est pas injectif.
⇔ f − λidE n’est pas bijectif.
2 −2 1
Exemple. Soit A = 2 −3 2. Déterminer le spectre de A.
−1 2 0
On fait un pivot pour étudier la non-inversibilité de A − λI3 , attention λ est un paramètre inconnu, il faut
prendre garde à ne pas exécuter d’opérations sur les lignes
ou lescolonnes illicites.
−1 −1 1
On obtient Sp (A) = {−3, 1}. Et même E−3 (A) = Vect −2 et E1 (A) = Vect 0 , 1
1 1 1
Proposition 2
Deux matrices semblables ont même spectre. Une matrice a le même spectre que sa transposée.
Démonstration. Deux matrices semblables ont même rang, il en est ainsi de même pour A−λIn et B −λIn .
De même, une matrice a même rang que sa transposée.
6.2. SOUS-ESPACES PROPRES, DÉTERMINATION DU SPECTRE 39
Définition 5
Proposition 3
Proposition 4
Proposition 5
Théorème 1
λ ∈ Sp (f ) =⇒ P (λ) = 0
m
X
Démonstration. Soit λ ∈ Sp (f ) et x ∈ Eλ (f ), x 6= 0E . On a P (f )(x) = 0E . Or P (f )(x) = ak f k (x) =
k=0
m
X
k
ak λ x = P (λ)x. Comme x 6= 0E , on a P (λ) = 0.
k=0
Proposition 6
Démonstration. On fait une preuve par récurrence. Pas de problème pour l’initialisation. Soit k ∈ N∗ ,
on suppose que si l’on dispose de k vecteurs propres associés à k valeurs propres distinctes, alors la
famille des vecteurs propres est libre. Soit x1 , . . . , xk+1 des vecteurs propres associés aux valeurs propres
k+1
X
distinctes λ1 , . . . , λk+1 . Soit α1 , . . . , αk+1 ∈ R tels que αj xj = 0E . On compose par f , on obtient
j=0
k+1
X
αj λj xj = 0E . On multiplie par λk+1 la première égalité et on lui retranche la deuxième inégalité. On
j=0
k
X
obtient αj (λk+1 − λj )xj = 0E or la famille est libre et les λj sont distincts, ainsi les αj sont égaux à
j=0
0, de même pour αk+1 . On a ainsi démontré le résultat par récurrence.
Corollaire 1
La concaténation de familles libres de sous-espaces propres distincts est une famille libre. En
particulier, la somme de sous-espaces propres est directe.
Corollaire 2
On a card Sp (f ) ≤ dim E.
6.3 Diagonalisation
Définition 6
On dit que f est diagonalisable (respectivement A est diagonalisable) s’il existe une base B de
E telle que MatB (f ) ∈ Dn (respectivement A est semblable à une matrice diagonale).
Théorème 2
Corollaire 3
Proposition 7
Si card Sp (f ) = 1, alors f est diagonalisable si et seulement s’il existe λ ∈ R tel que f = λidE .
6.3. DIAGONALISATION 41
Remarque. Cette proposition est souvent utilisée avec un polynôme annulateur n’ayant qu’une racine pour
montrer la non diagonalisabilité.
Exemple. Soit f ∈ L(Mn (R)) telle que ∀M ∈ Mn (R), f (M ) = M + tr(M )N où N ∈ Mn (R) avec N 6= 0
et tr(N ) = 0. Montrer que f n’est pas diagonalisable.
On calcule f ◦ f et on trouve un polynôme annulateur de f n’ayant que 1 comme racine.
Proposition 8
Si M est triangulaire supérieure (ou inférieure), alors ses valeurs propres sont les valeurs sur la
diagonale. En particulier, si elles sont distinctes alors M est diagonalisable.
Théorème 3
Proposition 9
X
Si A est diagonalisable, alors trA = dim Eλ λ.
λ∈Sp (A)
Démonstration. Si A est diagonalisable, alors A est semblable à une matrice diagonale D où pour λ ∈
Sp (A), λ apparaı̂t dim Eλ fois sur la diagonale de D. Comme deux matrices semblables ont même trace,
on obtient la résultat.
Proposition 10
1 ... 1
. .
Soit J = .. . . . .. . On a rg (J) = 1 donc 0 est une valeur propre de J et dim E0 = n − 1.
1 ... 1
1 n
.. ..
De plus J . = . dont n ∈ Sp (J). Ainsi J est diagonalisable.
1 n
42 CHAPITRE 6. RÉDUCTION DES ENDOMORPHISMES
Chapitre 7
Intégrales généralisées
Théorème 1
Soit f une fonction continue sur [a, b[ que l’on peut prolonger par continuité sur [a, b]. Alors
Z b
l’intégrale f (t)dt converge.
a
Z b
Démonstration. On note f˜ le prolongement continu de f , f˜ étant continue sur [a, b], l’intégrale f˜(t)dt
a
existe. Z b
Quitte à prendre f + λ avec λ ∈ R, on peut supposer que lim f (x) > 0 (car f (t)dt converge si et
x→b a
43
44 CHAPITRE 7. INTÉGRALES GÉNÉRALISÉES
Z b
seulement si ∀λ ∈ R, f (t) + λdt converge). Ainsi, il existe ε > 0 tel que ∀x ∈]b − ε, b[, f (x) > 0. On a
a
alors Z x Z b
∀x ∈]b − ε, b[, f (t)dt ≤ f˜(t)dt
a a
Z x
Or sur ]b − ε, b[, x 7→ f (t)dt est croissante et donc d’après le théorème de la limite monotone admet
a
une limite finie en b. D’où la convergence de l’intégrale.
Z 1
Exemple. Nature de l’intégrale t ln(t)dt.
0
Proposition 1
Z b Z b
Soit f continue et positive sur [a, b[ et telle que f (t)dt converge. Si f (t)dt = 0, alors
a a
∀t ∈ [a, b[, f (t) = 0.
Comment faire une intégration par partie ou un changement de variable pour une intégrale généralisée ?
1. Justifier la convergence de l’intégrale
2. Poser x ∈]a, b[ et faire tous les calculs sur le segment [a, x] (respectivement [x, b]).
3. Passer à la limite lorsque x tend vers b (respectivement vers a)
On peut se passer de l’étape 1 mais il faut alors justifier que le passage à la limite dans l’étape 3 est licite.
Z 1
Exemple. Convergence et calcul de l’intégrale : t ln tdt.
0
(1 − 1t )n
Z +∞
Calcul (on verra la convergence plus tard) de dt en faisant le changement de variable u = 1t .
1 t2
Théorème 2
Z b
Soit f une fonction continue et positive sur [a, b[. L’intégrale f (t)dt converge si et seulement
Z x a
Théorème 3
Soit f et g deux fonctions continues sur [a, b[ et positives au voisinage de b. On suppose qu’au
Z b Z b
voisinage de b, f (t) ≤ g(t) et que g(t)dt converge, alors f (t)dt converge.
a a
Z b
Démonstration. On applique au voisinage de b le théorème précédent avec g(t)dt comme majorant.
b−ε
Théorème 4
Soit f et g deux fonctions continues sur [a, b[ et positives au voisinage de b. On suppose que,
Z b Z b
f (t) ∼ g(t) alors f (t)dt et g(t)dt sont de même nature.
b a a
Démonstration. On a au voisinage de b l’existence d’un ε > 0 tel que f (t) ≤ (1 + ε)g(t). On peut alors
appliquer le théorème précédent.
Théorème 5
Soit f et g deux fonctions continues sur [a, b[ et g positive au voisinage de b (f est de signe
Z b Z b
quelconque). On suppose que, f (t) = o(g(t)) et que g(t)dt converge alors f (t)dt converge.
b a a
Z +∞
1
Exemple. Montrer la convergence de l’intégrale suivante : dt.
1 t2
En déduire la convergence des intégrales suivantes :
+∞
e−t +∞
t2 +∞
Z Z Z
2
1. dt 2. dt 3. e−t dt
1 t2 1 (1 + t2 )2 0
Définition 2
Z b
Soit f une fonction continue sur [a, b[. On dit que l’intégrale généralisée f (t)dt converge
Z b a
Théorème 6
Z b
Si l’intégrale généralisée f (t)dt converge absolument, alors elle converge.
a
46 CHAPITRE 7. INTÉGRALES GÉNÉRALISÉES
Z b
Démonstration. C’est la même preuve que pour les séries. On suppose que |f (t)|dt converge et on
Z b a
remarque que ∀t ∈]a, b[, f (t) = f (t) − |f (t)| + |f (t)|, or |f (t)|dt converge et f (t) − |f (t)| ≤ 0 et
Z b a Z b
|f (t)| − f (t) ≤ 2|f (t)|, d’où la convergence de f (t) − |f (t)|dt et donc de f (t)dt.
a a
Z +∞
sin t
Exemple. Déterminer la nature de l’intégrale dt.
1 t2
Intégrales
Z +∞de Riemann :
1
— α
dt est convergente si et seulement si α > 1.
1
Z 1 t
1
— α
dt est convergente si et seulement si α < 1.
0 t
Z b
1
On a même la généralisation suivante : dt est convergente si et seulement si α < 1,
a (b − t)α
Z b
1
de même pour dt.
a (t − a)α
Remarque. On utilise souvent les théorèmes de comparaison (6.3.3, 6.3.4) avec les intégrales de Riemann.
En particulier avec α = 2 en +∞ et α = 1/2 en 0
Z +∞
e−αt dt converge si et seulement si α > 0.
0
7.5 Compléments
Z b
Si f est continue sur ]a, b[ alors on dit que l’intégrale f (t)dt converge si pour tout c ∈]a, b[, les deux
Z c Z b a
Proposition 2
Z +∞ Z +∞
Si f est paire, alors f (t)dt converge si et seulement si f (t)dt converge si et seulement
Z 0 −∞ Z +∞ Z +∞ 0
+∞ +∞ x
4
Z Z Z
Remarque. ! Si f (t)dt converge alors f (t)dt = lim f (t)dt. Mais la réciproque est
−∞ −∞ x→+∞ −x
Z x
fausse ! ! (penser à tdt).
−x
48 CHAPITRE 7. INTÉGRALES GÉNÉRALISÉES
Chapitre 8
Variables à densité
8.1 Généralités
Définition 1
Soit (Ω, A, P) un espace probabilisé et X une variable aléatoire réelle. On dit que X est une
variable à densité si sa fonction de répartition FX est continue sur R et de classe C 1 sur R, sauf
éventuellement en un nombre fini de points.
Toute fonction fX : R → R à valeurs positives telle que fX (t) = FX0 (t) pour tout réel t sauf
éventuellement en un nombre fini de points est appelée densité de X.
0 si t < 0
Exemple. Soit X une variable aléatoire telle que FX (t) = t si 0 ≤ t ≤ 1 .
1 si 1 < t
Vérifier que X est une variable à densité et déterminer une densité de X.
Proposition 1
Z y
Démonstration. Il suffit de remarquer que pour tout x, y ∈ R, f (t)dt = F (y) − F (x). Or on connaı̂t
x
la limite de F en +∞ qui est 1, et en −∞ qui est 0. De plus, si P(X = x) 6= 0, alors F n’est pas continue
en x, ce qui contredit le fait que X est une variable à dentsité. D’où les différents résultats.
49
50 CHAPITRE 8. VARIABLES À DENSITÉ
Proposition 2
Z x
Démonstration. Il suffit de remarquer que x 7→ f (t)dt vérifie toutes les conditions pour être une
−∞
fonction de répartition d’une variable aléatoire.
0 si x ≤ 0
Exemple. Soit λ ∈ R et f définie par f (x) = √λx si x ∈]0, 1[ Déterminer λ pour que f soit une densité
λ
√ si x ≥ 1
x x
d’une variable aléatoire X puis représenter f . Ensuite, déterminer la fonction de répartition FX de X puis
représenter la courber de FX .
Proposition 3
4
Remarque. ! Si on sait déjà que F est une fonction de répartition, il suffit de montrer que F est
continue sur R et de classe C 1 sur R sauf éventuellement en un nombre fini de points.
8.2 Transformations
Proposition 4
Soit f une bijection croissante et g une bijection décroissante. Soit X une variable aléatoire et
t ∈ R. On les égalités d’événements suivants :
Proposition 5
Soit X une variable aléatoire à densité, de densité fX et de fonction de répartition FX que l’on
supposera C 1 sur R.
Alors pour tous réels a, b avec a 6= 0, la variable Y = aX + b est une variable à densité et on
peut obtenir sa densité et sa fonction de répartition
Méthode
Exemple. Soit X une variable aléatoire à densité telle que X(Ω) = R et de fonction de répartition de
classe C 1 sur R. On pose Y = ln(1 + |X|).
1. On remarque que Y (Ω) = R+
2. On en déduit que ∀t < 0, FY (t) = 0.
3. Soit t ∈ R+ .
Par composition de fonctions continues et de classe C 1 , on en déduit que Y est une variable aléatoire
à densité et par dérivation on obtient
(
0 si t < 0
fy (t) =
et (fX (et − 1) + fX (1 − et )) sinon
52 CHAPITRE 8. VARIABLES À DENSITÉ
8.3 Moments
Définition 2
Soit
Z +∞X une variable à densité, de densité fX . On dit que X admet une espérance
Z +∞ si l’intégrale
tfX (t)dt converge absolument et dans ce cas on note E(X) = tfX (t)dt son
−∞ −∞
espérance.
Proposition 6
Soit X une variable aléatoire à densité admettant une espérance. Alors pour tous réels a,b (avec
a 6= 0), la variable aX + b admet une espérance et E(aX + b) = aE(X) + b.
Définition 3
∗
Z +∞n ∈ N , on dit que la variable a densité X admet
Soit un moment d’ordre n si l’intégrale
Z +∞
n n
t fX (t)dt converge absolument et on a E(X ) = tn fX (t)dt
−∞ −∞
Proposition 7
Soit X une variable aléatoire à densité admettant un moment d’ordre n ∈ N∗ . Alors pour tout
k ∈ J1, nK, X admet un moment d’ordre k.
Définition 4
Soit X une variable à densité, de densité fX . Si X admet un moment d’ordre 2 alors X admet
une variance qui vaut V(X) = E(X 2 ) − E(X)2
Soit X une variable aléatoire sur (Ω, A, P). On dit que X(suit la loi uniforme sur [a, b] et on
1
si t ∈ [a, b]
note X ∼ U([a, b]), si X est une variable à densité f (t) = b−a .
0 sinon.
0 si t < a
t−a
La fonction de répartition est donc FX (t) = b−a si a ≤ t ≤ b
1 si t > b
8.4. LOIS USUELLES 53
Proposition 8
a+b
Si X ∼ U([a, b]), alors X admet une espérance et E(X) = 2 et X admet une variance
(b−a)2
V(X) = 12 .
Définition 6
Soit X une variable aléatoire sur (Ω, A, P) et λ > 0. On dit que X suit la(loi exponentielle de
λe−λt si t ≥ 0
paramètre λ et on note X ∼ E(λ), si X est une variable à densité f (t) = .
0 sinon.
(
0 si t < 0
La fonction de répartition est donc FX (t) =
1 − e−λt si t ≥ 0
Proposition 9
1 1
Si X ∼ E(λ), alors X admet une espérance et E(X) = λ et X admet une variance V(X) = λ2
.
Théorème 1
Soit X une variable à densité à valeurs positives telle que ∀t > 0, P(X > t) > 0. On dit que la
loi de X est une loi sans mémoire si ∀(x, y) ∈ R2+ , PX>y (X > y + x) = P(X > x).
La loi de X est une loi sans mémoire si et seulement si X suit une loi exponentielle.
Démonstration. On remarque dans un premier temps que PX>y (X > y + x) = P(X>x+y) P(X>y . Ainsi la
réciproque est immédiate. Pour le sens direct, on pose g définie sur R+ telle que pour tout t ∈ R+ ,
g(t) = P(X > t). Pour tout x, y ∈ R+ , on a g(xy) = g(x)g(y) et on peut montrer (exercice classique !),
que g est de la forme t 7→ exp(−αt), avec α > 0 car lim g(t) = 0. On retrouve bien l’antifonction de
t→+∞
répartition d’une variable aléatoire suivant une loi exponentielle.
Définition 7
Soit X une variable aléatoire sur (Ω, A, P). On dit que X suit la loi normale de paramètre
(t−µ)2
(µ, σ 2 ) et on note X ∼ N (µ, σ 2 ), si X est une variable à densité φ(t) = √1 e− 2σ 2 .
Z t σ 2π
Proposition 10
Si X ∼ N (µ, σ 2 ), alors X admet une espérance et E(X) = µ et X admet une variance V(X) =
σ2.
Z +∞ t2 √
Remarque. On a admis que e− 2 dt = 2π
−∞
Théorème 2
Remarque. Ce théorème nous indique que l’on peut se contenter de bien connaı̂tre la loi normale centrée
réduite.
Proposition 11
Z +∞ √
2 π
On a e−t =
0 2
Démonstration. Inutile de chercher à calculer cette intégrale avec les techniques usuelles. Il existe un
2
théorème très fort, du en partie à Liouville, qui précise que la fonction t 7→ e−t n’admet pas de primitive
exprimable avec les fonctions usuelles. On utilisera donc nos connaissances (et un résultat admis !) sur la
loi normale pour calculer cette intégrale. Z +∞
2 √
Soit X ∼ N (0, 1/2), en intégrant sa densité de −∞ à +∞, on obtient e−t dt = π. En remarquant
Z +∞ √ −∞
−t2 −t2 π
que t 7→ e est paire, on obtient e =
0 2
Chapitre 9
On note (ui,j )i,j∈N une application de N2 dans R. Cette application correspond à une suite avec
deux indices, on pourra l’appeler suite double.
Théorème 1
Théorème de Fubini
Soit (ui,j )i,j∈N une suite double positive. On suppose que
X
∀i ∈ N, ui,j converge
j∈N
X +∞
X
ui,j converge
i∈N j=0
On a alors X
∀j ∈ N, ui,j converge
i∈N !
+∞
X X
ui,j converge
j∈N i=0
X+∞ X+∞ +∞ X
X +∞
ui,j = ui,j
i=0 j=0 j=0 i=0
Remarque. Ce théorème signifie que l’on peut échanger deux limites, ce qui n’est pas possible en règle
générale.
1 si i = j
Exemple. Un contre exemple : on pose pour tout i, j ∈ N, ai,j = −1 si j = i + 1 .
0 sinon
55
56 CHAPITRE 9. COUPLES DE VARIABLES ALÉATOIRES
Définition 2
Remarque. On fera attention au support de (X, Y ). Il est inclus dans X(Ω)×Y (Ω) mais n’est pas forcément
égal. Par exemple, si X ∼ B(p), on pose Y = 1 − X. Ainsi X(Ω) × Y (Ω) = {0, 1}2 mais (X, Y )(Ω) =
{(0, 1), (1, 0)}.
Proposition 1
Remarque. Il en est de même pour ((X = x) ∩ (Y = y))(x,y)∈(X(Ω)×Y (Ω) , (X, Y )(Ω) n’étant pas toujours
facile à déterminer.
Définition 3
Remarque. Comme d’habitude, (X, Y )(Ω) n’étant pas forcément facile à déterminer, on peut considérer
((x, y), P(X = x ∩ Y = y))(x,y)∈X(Ω×Y (Ω)
Théorème 2
Soit (X, Y ) un couple de variables aléatoires discrètes. On peut déterminer les lois marginales
à partir de la loi conjointe :
X
∀x ∈ X(Ω), P(X = x) = P(X = x ∩ Y = y)
y∈Y (Ω)
et de même X
∀y ∈ Y (Ω), P(Y = y) = P(X = x ∩ Y = y)
x∈X(Ω)
4
Remarque. ! On ne peut pas déduire la loi conjointe à partir des lois marginales ! Sauf dans le cas très
particulier où X et Y sont indépendantes car P(X = x ∩ Y = y) = P(X = x) × P(Y = y).
Astuce. Parfois, on arrive directement à factoriser la loi conjointe : P(X = x ∩ Y = y) = f (x)g(y) où
(x, f (x))x∈X(Ω) et (y, g(y))y∈Y (Ω) sont des lois de probabilité. On obtient ainsi les lois marginales et même
l’indépendance de X et de Y .
Définition 4
Soit (X, Y ) un couple de variables aléatoires discrètes. Pour tout y ∈ Y (Ω) tel que P(Y = y) 6= 0,
on désigne par loi conditionnelle de X sachant Y = y par la loi (x, PY =y (X = x))x∈X(Ω) .
9.3. SOMME DE VARIABLES ALÉATOIRES 57
Proposition 2
Si on connaı̂t une loi marginale et la probabilité conditionnelle de l’autre variable par rapport
à la première, alors on peut retrouver la loi conjointe. Plus précisément, pour tout x, y ∈
(X, Y )(Ω), si P(Y = y) 6= 0, P(X = x ∩ Y = y) = PY =y (X = x)P(Y = y). Et on retrouve ainsi
la loi marginale de X.
Remarque. Si X et Y sont indépendantes, alors la loi de X sachant Y = y est la loi de X. De même pour
la loi de Y sachant X = x.
Théorème 4
Soit p ∈]0, 1[, n, m ∈ N∗ . Soit X, Y deux variables aléatoires indépendantes telles que X ∼
B(n, p) et Y ∼ B(m, p). On a alors X + Y ∼ B(n + m, p).
Plus généralement, si X1 , . . . , Xn sont mutuellement indépendantes et pour tout k ∈
n
X Xn
J1, nK, Xk ∼ B(mk , p) alors Xk ∼ B( mk , p).
k=1 k=1
Remarque. En particulier, B(1, p) est en fait une loi de Bernoulli de paramètre p. Ainsi la somme de n
variables aléatoires mutuellement indépendantes suivant une loi de Bernoulli de paramètre p suit une loi
binomiale de paramètre (n, p).
Théorème 5
Soit λ, µ ∈ R∗+ . Soit X, Y deux variables aléatoires indépendantes telles que X ∼ P(λ) et
Y ∼ P(µ). On a alors X + Y ∼ P(λ + µ).
Plus généralement, si X1 , . . . , Xn sont mutuellement indépendantes et pour tout k ∈
n
X Xn
J1, nK, Xk ∼ P(λk ) alors Xk ∼ P( λk ).
k=1 k=1
Remarque. On dit que la loi binomiale et la loi de Poisson sont des lois stables.
58 CHAPITRE 9. COUPLES DE VARIABLES ALÉATOIRES
9.4 Covariance
Proposition 3
Si X et Y , deux variables aléatoires discrètes, admettent un moment d’ordre deux alors leur
produit XY admet une espérance. De plus, X + Y admet aussi un moment d’ordre deux.
Proposition 4
Théorème 6
Définition 5
Théorème 7
Corollaire 1
Remarque. 4
! La réciproque est fausse !
9.4. COVARIANCE 59
Proposition 5
Théorème 8
Proposition 6
Définition 6
Soit X, Y deux variables aléatoires discrètes non certaines admettant un moment d’ordre 2, le
réel
Cov(X, Y )
ρ(X, Y ) = p
V(X)V(Y )
est appelé coefficient de corrélation linéaire de X et Y .
Théorème 9
−1 ≤ ρ(X, Y ) ≤ 1
Démonstration. à venir
60 CHAPITRE 9. COUPLES DE VARIABLES ALÉATOIRES
Remarque. Interprétation : si ρ(X, Y ) alors on dit que X et Y sont corrélées de manière positive : X et
Y ont les mêmes tendances, par exemple si X correspond à votre notre en mathématiques au CB2 de KH
et Y votre note en mathématiques à l’écrit de l’ENS, la corrélation est a priori positive. Au contraire si
on prend X votre note en mathématiques à l’écrit de l’ENS et Y votre rang à l’ENSAE, la corrélation est
négative (les tendances sont contraires : si X est grand alors Y est petit et inversement).
Proposition 7
Si X et Y sont deux variables aléatoires non certaines admettant un moment d’ordre 2 alors
pour tout a, b, c, d ∈ R avec a > 0 et c > 0, on a
ρ(aX + b, cY + d) = ρ(X, Y )
Chapitre 10
Algèbre bilinéaire
Théorème 1
Le produit scalaire est une application de Rn × Rn dans R, on dit que c’est une forme :
— bilinéaire : ∀x, y, z ∈ Rn , ∀λ ∈ R, hλx + y, zi = λhx, zi + hy, zi et hx, λy + zi = λhx, yi +
hx, zi. Autrement dit : pour tout y ∈ Rn fixé, x 7→ hx, yi est une forme linéaire et de
même pour x 7→ hy, xi.
— symétrique : ∀x, y ∈ Rn , hx, yi = hy, xi
— définie : ∀x ∈ Rn , hx, xi = 0 =⇒ x = 0
— positive : ∀x ∈ Rn , hx, xi ≥ 0
Proposition 1
Expression matricielle
x1 y
1
. .
Soit x = (x1 , . . . xn ) ∈ Rn et y = (y1 , . . . , yn ) ∈ Rn . On pose X = .. et Y = .. . On a
xn yn
t
hx, yi = XY .
De plus, soit u ∈ L(Rn ) et A canoniquement associé à u. On a hu(x), yi = t (AX)Y = t X t AY .
Définition 2
p
Soit x ∈ Rn , on appelle norme de x, le réel positif kxk = hx, xi
61
62 CHAPITRE 10. ALGÈBRE BILINÉAIRE
Théorème 2
Inégalité de Cauchy-Schwarz
Soit x, y ∈ Rn , on a |hx, yi| ≤ kxkkyk
Démonstration. à venir
Théorème 3
Démonstration. à venir
Proposition 2
Propriétés de la norme
— Pour tout x ∈ Rn , on a kxk ≥ 0 et kxk = 0 ⇔ x = 0.
— Pour tout x ∈ Rn , pour tout λ ∈ R, kλxk = |λ|kxk
— Inégalité triangulaire : pour tous vecteurs x, y ∈ Rn , on a kx + yk ≤ kxk + kyk
Proposition 3
Identité de polarisation.
Remarque. Cette formule est pratique lorsque l’on a des informations sur les normes et que l’on veut les
traduire en produit scalaire.
Définition 3
Proposition 4
Propriétés de la distance
On a pour tout x, y ∈ Rn :
— d(x, y) = 0 ⇔ x = y
— d(x, y) = d(y, x)
— ∀z ∈ Rn , d(x, y) ≤ d(x, z) + d(z, y)
10.2. ORTHOGONALITÉ 63
Définition 4
Soit a ∈ Rn et r ∈ R∗+ .
— On appelle sphère de centre a et de rayon r l’ensemble S(a, r) = {x ∈ Rn , kx − ak = rk}.
— On appelle boule ouverte de centre a et de rayon r l’ensemble B(a, r) = {x ∈ Rn , kx −
ak < r}.
— On appelle boule fermée de centre a et de rayon r l’ensemble Bf (a, r) = {x ∈ Rn , kx −
ak ≤ r} = S(a, r) ∪ B(a, r).
10.2 Orthogonalité
Définition 5
Proposition 5
Théorème 4
Corollaire 1
Définition 7
Définition 8
On dit qu’une famille de vecteurs de Rn (x1 , . . . , xp ) est orthogonale si ∀i, j ∈ J1, pK, i 6= j =⇒
xi ⊥ xj .
Proposition 6
Démonstration. à venir
Définition 9
n
( dit qu’une famille de vecteurs de R (x1 , . . . xp ) est orthonormale si ∀i, j ∈ J1, pK, hxi , xj i =
On
0 si i 6= j
.
1 si i = j
Si p = n on parle alors de base orthonormale ou base orthonormée (parfois abrégé en b.o.n.)
Remarque. Si (x1 , . . . , xp ) est une famille orthogonale de vecteurs tous non nuls, alors en posant, pour
tout i ∈ J1, pK yi = kxxii k , on a (y1 , . . . , yp ) est une famille orthonormale.
Proposition 7
Soit (e1 , . . . , ep ) une famille orthogonale d’éléments tous non nuls. Il existe (ep+1 , . . . , en ) tel
que (e1 , . . . en ) est une base orthogonale de Rn .
Corollaire 2
Théorème 5
Théorème de Pythagore.
Soit (x1 , . . . xp ) une famille orthogonale. On a
p 2 p
X X
xi = kxi k2
i=1 i=1
Théorème 6
et
n
X
2
kxk = hx, ei i2
i=1
Définition 10
Soit p un projecteur. On dit que c’est un projecteur orthogonal si Ker f = (Im f )⊥ (ou de
manière équivalente Im f = (Ker f )⊥ ).
Si F est un sous-espace vectoriel de Rn , alors pF est la projection orthogonale sur F si c’est la
projection sur F parallèlement à F ⊥ .
Proposition 8
p ◦ p = p
p projection orthogonale sur F ⇔ Im p = F
Ker p ⊥ Im p
Démonstration. En effet, si Ker p ⊥ Im p alors Ker p ⊂ (Im p)⊥ or dim (Im p)⊥ = n−dim Im p = dim Ker p,
la première égalité venant du fait que Im p et (Im p)⊥ sont supplémentaires, la deuxième du théorème du
rang. Ainsi, Ker p = (Im p)⊥ .
66 CHAPITRE 10. ALGÈBRE BILINÉAIRE
Proposition 9
Théorème 7
d(x, F ) = kx − pF (x)k
Autrement dit, le projeté de x sur F minimise la distance entre x et F , c’est-à-dire, pour tout
y ∈ F , kx − pF (x)k ≤ kx − yk.
Démonstration. Soit x ∈ Rn , y ∈ F .
Le passage à la deuxième ligne est possible car pF (x) − y ∈ F et x − pF (x) ∈ Ker pF = F ⊥ donc on peut
appliquer le théorème de Pythagore.
Chapitre 11
11.1 Définitions
Définition 1
On appelle fonction de deux variables réelles une application de R2 dans R, on note f : (x, y) 7→
f (x, y).
On appelle graphe de f l’ensemble G(f ) = {(x, y, f (x, y)), (x, y) ∈ R2 }.
Pour tout réel k, on appelle ligne de niveau k l’ensemble Lk = {(x, y) ∈ R2 , f (x, y) = k}.
Remarque. Le graphe de f correspond à une surface de R3 . Une ligne de niveau k correspond au projeté
orthogonal sur le plan R2 de l’intersection du graphe avec le plan z = k.
67
68 CHAPITRE 11. FONCTIONS DE DEUX VARIABLES
√
Les lignes de niveau k > 0 sont des cercles de centre (0, 0) et de rayon k.
L’intersection du graphe de h avec le plan d’équation y = 0 est une parabole (d’où le nom de
paraboloı̈de).
∀a ∈ U, ∃ε > 0, B(a, ε) ⊂ U
Définition 3
Soit (xn )n∈N une suite d’éléments de R2 . On dit que (xn )n∈N converge vers a ∈ R2 si
Remarque. Tout ce qui concerne les limites (et donc en particulier la continuité) dans R2 est similaire à
ce qui se passe dans R sauf qu’à la place des valeurs absolues, il y a désormais des normes.
Définition 4
On dit qu’une fonction est continue si elle continue en tout point de son ensemble de définition.
11.3. DÉRIVÉES PARTIELLES 69
Proposition 1
Exemple. On peut ainsi montrer la continuité de presque toute fonction comme somme, différence, produit,
quotient et composition de fonctions coordonnées.
— f : (x, y) 7→ ax + by est continue car f = af1 + b2 .
— g : (x, y) 7→ sin(x) sin(y) est continue car g = sin(f1 ) sin(f2 ).
— h : (x, y) 7→ x2 + y 2 est continue car h = (f1 )2 + (f2 )2 .
— Les fonctions polynômiales, c’est-à-dire les sommes de fonctions de la forme axk y j où k et j sont
des entiers, sont continues.
— h1 : (x, y) 7→ exy−y arctan(x+1) est continue car h1 = ef1 f2 −f2 arctan(f1 +1) .
Définition 5
Soit f : U → R où U est un ouvert de R2 . Soit a = (a1 , a2 ) ∈ U . On dit que f admet une dérivée
partielle d’ordre 1 par rapport à x (respectivement y) en a si f1 : x 7→ f (x, a2 ) est dérivable en
a1 (respectivement f2 : y 7→ f (a1 , y) est dérivable en a2 ). On a ainsi :
Remarque. Pour dériver par rapport à x, il suffit de faire comme si y est une constante.
Exemple. — Pour g : (x, y) 7→ sin(x) sin(y), on a ∂1 g(x, y) = cos(x) sin y et ∂2 g(x, y) = sin(x) cos(y).
— Pour h : (x, y) 7→ x2 + y 2 , on
a ∂1 h(x, y) = 2x et ∂2 h(x, y) = 2y.
arctan 2x arctan 2x
2 +1
y
— Pour f : (x, y) 7→ xe y +1 , on a ∂ f (x, y) =
1 1 + (y2 +1)2 +x2 e y +1 et ∂2 f (x, y) =
−2yx2 arctan 2x
x2 +(y 2 +1)2
e y +1 .
Définition 6
On dit que f est de classe C 1 sur U ouvert de R2 si f possède des dérivées partielles d’ordre 1
et si ces dérivées partielles sont continues.
70 CHAPITRE 11. FONCTIONS DE DEUX VARIABLES
Définition 7
Si f possèdes des dérivées partielles d’ordre 1 en (x, y), on appelle gradient de f en (x, y)
l’élément de R2
∂1 f (x, y)
Gradf (x, y) =
∂2 f (x, y)
Définition 8
Soit f définie sur U ouvert de R2 et admettant une dérivée partielle ∂i f avec i ∈ {1, 2}.
Si ∂i f admet une dérivée partielle par rapport à la j-ième variable alors on note celle ci ∂j,i 2 f.
Théorème 1
Théorème de Schwarz
Si f : U → R est de classe C 2 alors
2 2
∂1,2 f = ∂2,1 f
11.4 Extrema 1
Définition 9
Soit f définie sur U un ouvert de R2 . On dit que f admet un maximum (resp. minimum) local
en a s’il existe r > 0 tel que
Théorème 2
Si f est définie sur un ouvert de R2 , admet des dérivées partielles d’ordre 1 et admet un
extremum en a, alors le gradient de f est nul en a.
Les points où le gradient de f est nul sont appelés points critiques.
Définition 10
On appelle fonction quadratique une fonction f : R2 → R telle qu’il existe des réels a, b, c, non
tous nuls, tels que
f : (x, y) 7→ ax2 + 2bxy + cy 2
Théorème 3
Démonstration. À venir
Théorème 4
Remarque. 4
! Si ∆ = 0, alors on ne peut rien dire de la nature du point critique.
72 CHAPITRE 11. FONCTIONS DE DEUX VARIABLES
Chapitre 12
Inégalités en probabilités
Théorème 1
Inégalité de Markov
Soit X une variable aléatoire, positive, admettant une espérance. On a pour tout t > 0 :
E(X)
P(X ≥ t) ≤
t
Théorème 2
Inégalité de Bienaymé-Tchebychev
Soit X une variable aléatoire admettant une variance. On a pour tout t > 0 :
V(X)
P(|X − E(X)| ≥ t) ≤
t2
Exercice 1. 1. Démontrer l’inégalité de Markov lorsque X est une variable aléatoire (positive et ad-
mettant une espérance) à densité.
2. Démontrer l’inégalité de Bienaymé-Tchebychev.
73
74 CHAPITRE 12. INÉGALITÉS EN PROBABILITÉS
Intervalle de confiance
Théorème 4
Soit X une variable aléatoire. On note MX la fonction génératrice des moments de X définie
par :
MX : t 7→ E etX
Théorème 5
Inégalité de Chernoff
Soit X une variable aléatoire telle que sa fonction génératrice des moments est bien définie sur
un intervalle I ⊂ R+ . On a alors
∀t ∈ I, ∀a ∈ R, P(X ≥ a) ≤ MX (t)e−ta