Vous êtes sur la page 1sur 75

KH B/L Lycée Henri IV

Cours de mathématiques

Année scolaire 2019-2020


2
Table des matières

1 Nombres complexes 5
1.1 Conjugué, module, argument . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Interprétation géométrique et forme exponentielle . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Équation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Formules de trigonométrie, duplication, linéarisation . . . . . . . . . . . . . . . . . . . . . 10
1.5 Racines n-ièmes de l’unité. Hors-programme . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 Révisions d’analyse 13
2.1 Suites et séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Déterminer le terme général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.2 Déterminer la nature et en cas de convergence la limite . . . . . . . . . . . . . . . 13
2.2 Fonctions de la variable réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2 Dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.3 Intégration sur un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3 Fonctions polynômiales 17
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 Propriétés analytiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3 Compléments hors programme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.1 Formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.2 Factorisation dans R[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.3 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

4 Développements limités 25
4.1 Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2 Définition - Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3 Opérations sur les développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.4 Développements limités et parité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.5 Applications des développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.5.1 Recherche d’équivalents et de limites . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.5.2 Allure locale du graphe d’une fonction - Tangente . . . . . . . . . . . . . . . . . . 29
4.5.3 Recherche d’asymptotes obliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.6 Formulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

5 Révisions d’algèbre linéaire 33


5.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.3 Applications linéaires et matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3
4 TABLE DES MATIÈRES

6 Réduction des endomorphismes 37


6.1 Valeurs propres, vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.2 Sous-espaces propres, détermination du spectre . . . . . . . . . . . . . . . . . . . . . . . . 38
6.3 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

7 Intégrales généralisées 43
7.1 Intégrales généralisées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
7.2 Propriétés et calcul d’intégrales généralisées . . . . . . . . . . . . . . . . . . . . . . . . . . 44
7.3 Critères de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
7.4 Intégrales de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.5 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

8 Variables à densité 49
8.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
8.2 Transformations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
8.3 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
8.4 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

9 Couples de variables aléatoires 55


9.1 Séries doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
9.2 Lois conjointes, lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
9.3 Somme de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
9.4 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

10 Algèbre bilinéaire 61
10.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
10.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
10.3 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

11 Fonctions de deux variables 67


11.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
11.2 Un peu de topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
11.3 Dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
11.4 Extrema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

12 Inégalités en probabilités 73
Chapitre 1

Nombres complexes

1.1 Conjugué, module, argument


On admet l’existence d’un nombre complexe noté i qui vérifie i2 = −1.

Forme algébrique d’un nombre complexe


Définition 1

Tout nombre complexe z s’écrit de manière unique sous la forme z = x + iy où x et y sont des
réels.
C’est-à-dire : ∀z ∈ C, ∃!(x, y) ∈ R2 , z = x + iy.
x est appelé partie réelle de z et est noté Re(z).
y est appelé partie imaginaire de z et est noté Im (z).
On notera iR l’ensemble des nombres imaginaires purs, {z ∈ C, Re(z) = 0}.

Définition 2

Soit z = x + iy, on appelle conjugué de z le nombre complexe noté z défini par z = x − iy.

Proposition 1

On a ainsi

— Re(z) = z+z
2 — ∀z, z 0 ∈ C, z + z 0 = z + z 0
— Im (z) = z−z
2i — zz 0 = zz 0
— z∈R⇔z=z — z=z
— z ∈ iR ⇔ z = −z — zz = Re(z)2 + Im (z)2 ∈ R+

Démonstration. On pose z = a + ib, z 0 = c + id avec a, b, c, d réels.


— z + z = a + ib + a − ib = 2a = 2Re(z).
— z − z = a + ib − a + ib = 2ib = 2iIm (z).
— z = z ⇔ Im (z) = 0 d’après le point précédent.
— z = −z ⇔ Re(z) = 0.
— z + z 0 = a + ib + c + id = a + b − i(c + d) = z + z 0 .
— zz 0 = (a + ib)(c + id) = ac − bd + i(ad + bc) = ac − bd − i(ad + bc) = (a − ib)(c − id) = zz 0 .
— z = a − ib = a + ib

5
6 CHAPITRE 1. NOMBRES COMPLEXES

— zz = (a + ib)(a − ib) = a2 + b2 .

Définition 3
p √
On appelle module de z le réel positif noté |z| défini par |z| = Re(z)2 + Im (z)2 = zz.

Remarque. Si z ∈ R, alors le module de z n’est autre que la valeur absolue de z.

Proposition 2

Soit z ∈ C,
|z| = 0 ⇔ z = 0

Démonstration. On a |z| = 0 ⇔ Re(z)2 + Im (z)2 =⇔ Re(z) = Im (z) = 0 ⇔ z = 0.

Proposition 3

Soit z ∈ C, z 6= 0. Il existe un unique nombre complexe z 0 tel que zz 0 = 1. On le note z 0 = z1 .

Démonstration. On sait que z 6= 0 implique |z| 6= 0, ainsi, de l’égalité zz = |z|2 , on en déduit z |z|z 2 = 1,
ainsi z 0 = z
|z|2
, d’où l’existence. L’unicité est immédiate.

Remarque. Pour mettre un nombre complexe de la forme z1 sous forme algébrique, il suffit de multiplier
par le conjugué de z au numérateur et dénominateur. On a z1 = |z|z 2 .
On remarque alors que z1 = z1 .


Proposition 4

Soit z ∈ C.

— |Re(z)| ≤ |z| — |zz 0 | = |z| × |z 0 |


— |Im (z)| ≤ |z| — si z = 6 0, alors z1 = 1
|z|
— |z| = |z|

Démonstration. — Re(z)2 ≤ Re(z)2 + Im (z)2 = |z|2 d’où le résultat en prenant la racine carrée.
— Idem.
— Conséquence de z = z.
— Conséquence de zz 0 = zz 0 .
— Conséquence de z1 = z1 .


Proposition 5

Soit z ∈ C.
1
On a |z| = 1 si et seulement z = z
1.2. INTERPRÉTATION GÉOMÉTRIQUE ET FORME EXPONENTIELLE 7

Démonstration. |z| = 1 ⇔ zz = |z|2 = 1 ⇔ z = z1 .

Remarque. L’utilisation du conjugué est très pratique car compatible avec les opérations usuelles et est,
de fait, particulièrement efficace. On la privilégiera au remplacement systématique z = a + ib qui, outre
son manque d’élégance, est source inépuisable d’erreurs de calculs.

Théorème 1 (Inégalité triangulaire)

Soit z et z 0 deux nombres complexes.


1. |z + z 0 | ≤ |z| + |z 0 |
2. |z + z 0 | = |z| + |z 0 | ⇔ z = 0 ou ∃t ∈ R+ tel que z 0 = tz
3. ||z| − |z 0 || ≤ |z − z 0 | ≤ |z| + |z 0 |

Démonstration. 1.

|z + z 0 |2 = (z + z 0 )(z + z 0 ) = |z|2 + zz 0 + zz 0 + |z 0 |2
= |z|2 + |z 0 |2 + 2Re(zz 0 )

Aussi, (|z| + |z 0 |)2 = |z|2 + |z 0 |2 + 2|zz 0 |.


Or, on sait que 2|zz 0 | = 2|z||z 0 | ≥ 2Re(zz 0 ) d’où l’inégalité en passant à la racine.
2. On a égalité dans l’inégalité précédente si et seulement si |zz 0 | = 2Re(zz 0 ), cela signifie que zz 0 ∈ R+ .
0 0
Donc soit z = 0, soit (zz) zz ∈ R+ , ceci signifie que zz ∈ R+ d’où la deuxième condition de 2).
3. La démonstration est similaire à celle de 1).

Définition 4 (Argument)

Soit z ∈ C, z = a + ib. On appelle argument de z (noté argz) tout réel θ tel que cos θ = √ a
a2 +b2
et sin θ = √ b
a2 +b2

Remarque.
— Si θ est un argument de z, alors tout réel de la forme θ + 2kπ avec k ∈ Z est un argument de z.
— z admet un unique argument dans ] − π, π] appelé argument principal et noté Arg.

1.2 Interprétation géométrique et forme exponentielle

Soit (0, →

e1 , →

e2 ) un repère orthonormé direct. Le point M et
−−→
le vecteur OM de coordonnées (a, b) sont représentés par
le nombre complexe z = a + ib appelé affixe de M (et de
−−→
OM ). Soit r le module de z et θ un argument de z, alors
z = r(cos θ + i sin θ). θ est une mesure de l’angle orienté

−\ −−→ −−→
e , OM , r est la norme du vecteur OM
1

Le complexe cos θ + i sin θ est noté eiθ .


8 CHAPITRE 1. NOMBRES COMPLEXES

Théorème 2

Tout nombre complexe non nul s’écrit sous la forme exponentielle z = reiθ avec r > 0 et θ ∈ R.
On a alors |z| = r et θ est un argument de z.

Proposition 6

— ∀θ ∈ R, eiθ = e−iθ = e1iθ et |eiθ | = 1


0 0
— ∀θ, θ0 ∈ R, eiθ × eiθ = ei(θ+θ ) .

Théorème 3 (Formule d’Euler)

eiθ +e−iθ eiθ −e−iθ


∀θ ∈ R, cos θ = 2 et sin θ = 2i

z+z eiθ +e−iθ


Démonstration. On pose z = eiθ et donc Re(z) = cos θ et Im (z) = sin θ. Or Re(z) = 2 = 2 et
eiθ −e−iθ
sin θ = z−z
2i = 2i .

Théorème 4 (Formule de Moivre)

Pour tout réel θ et tout entier naturel n, on a (eiθ )n = einθ , c’est-à-dire

(cos θ + i sin θ)n = cos(nθ) + i sin(nθ)

Proposition 7 (Propriétés de l’argument)

Soit z, z 0 ∈ C \ {0}.
— arg(zz0 ) = argz + argz 0
— arg z1 = − arg z
— |z + z 0 | = |z| + |z 0 | ⇔ ∃k ∈ Z, argz = argz 0 + 2kπ
−−→\ −−→ 
−zC

— AB, CD = arg zzD B −zA

Démonstration. On ne prouvera que le dernier point.

−−→ −−→ −−→ − → −−→ −\ −−→ −\ −−→


AB, CD = AB, →e1 + −
e1 , CD = →
e1 , CD − →
\ \ \
e1 , AB
 
z D − zC
= arg(zD − zC ) − arg(zB − zA ) = arg
zB − zA
1.2. INTERPRÉTATION GÉOMÉTRIQUE ET FORME EXPONENTIELLE 9

Proposition 8 (Conséquences géométriques)

−−→
\ −−→ −zC
— (AB) et (CD) sont parallèles ⇔ (AB, CD) = 0[π] ⇔ zzD B −zA
∈ R∗
zC −zA
— A, B et C sont alignés ⇔ (AB) et (AC) sont parallèles ⇔ zB −zA ∈ R∗
C −zA
— ABC est rectangle en A ⇔ (AB) et (AC) sont perpendiculaires ⇔ zzB −zA ∈ iR

−zC
— (AB) et (CD) sont perpendiculaires ⇔ zzDB −zA
∈ iR∗

Proposition 9 (Passer de la forme algébrique à la forme exponentielle)


√ a
+ i rb .

Soit z = a + ib. Le module de z est r = a2 + b2 . Si z 6= 0 alors r 6= 0 et on écrit z = r r
On cherche ensuite un réel θ tel que ar = cos θ et rb = sin θ.

√ √
3
 √
3
Exemple. z = 3 + i. On a |z| = 2 donc z = 2 2 + i 12 . On cherche θ tel que cos θ = 2 et sin θ = 12 ,
π
π
θ= 6 convient. Donc z = 2ei 6 .

Méthode (Technique de l’angle moitié)


0 0
Soit θ, θ0 ∈ R, on peut simplifier eiθ + eiθ et eiθ − eiθ de la manière suivante :
0 i(θ+θ 0 ) i(θ−θ 0 ) i(θ+θ 0 ) i(θ−θ 0 )
− 2
eiθ + eiθ = e 2
+ 2
+e 2

θ − θ0
   
i(θ+θ 0 )
i(θ−θ 0 ) −i(θ−θ 0 ) i(θ+θ 0 )
=e 2 e 2 +e 2 = 2e 2 cos
2
0 0 0 θ − θ0
       
θ+θ θ−θ θ+θ
= 2 cos cos + 2i sin cos
2 2 2 2
0
De même pour eiθ − eiθ .
On en déduit les formules de trigonométrie :

θ + θ0 θ − θ0
  
cos(θ) + cos(θ0 ) = 2 cos cos
2 2

θ + θ0 θ − θ0
   
0
sin(θ) + sin(θ ) = 2 sin cos
2 2
θ + θ0 θ − θ0
   
cos(θ) − cos(θ0 ) = −2 sin sin
2 2
θ + θ0 θ − θ0
   
0
sin(θ) − sin(θ ) = 2 cos sin
2 2

Remarque. On utilise la technique de l’angle moitié lorsqu’on souhaite mettre sous forme exponentielle (ou
trigonométrique) la somme (ou la différence) de deux nombres complexes écrits sous la forme exponentielle.

À noter que 1 = ei0 et i = e 2 .
10 CHAPITRE 1. NOMBRES COMPLEXES

1.3 Équation du second degré

Théorème 5

Soit a ∈ R∗ , b, c ∈ R. On considère l’équation (E) : az 2 + bz + c = 0.


Notons SE l’ensemble solution de (E) dans C et posons ∆ = b2 − 4ac, ∆ est appelé discriminant
de (E).
Si ∆ = 0 alors SE = n−b

2a√ √ o
−b− ∆ −b+ ∆
Si ∆ > 0 alors SE = 2a , 2a .
n √ √ o
−b−i −∆ −b+i −∆
Si ∆ < 0 alors SE = 2a , 2a , les deux solutions sont conjuguées.

Remarque. Un résultat utile : si z1 et z2 sont solutions de (E) alors az 2 + bz + c = a(z − z1 )(z − z2 ) et


donc z1 + z2 = −b c
a et z1 z2 = a .

1.4 Formules de trigonométrie, duplication, linéarisation

À connaı̂tre impérativement par coeur !


Formules d’addition :

cos(a + b) = cos a cos b − sin a sin b sin(a + b) = sin a cos b + sin b cos a
cos(a − b) = cos a cos b + sin a sin b sin(a − b) = sin a cos b − sin b cos a

Le sinus est gentil : il garde le plus et se mélange avec le cosinus.


Le cosinus est méchant : il échange le plus et le moins et ne se mélange pas.
Formules de duplication :

cos 2a = cos2 a − sin2 a = 1 − 2 sin2 a = 2 cos2 a − 1


sin 2a = 2 sin a cos a

Passage du produit à la somme :

1
cos a cos b = (cos(a + b) + cos(a − b))
2
1
sin a sin b = (cos(a − b) − cos(a + b))
2
1
sin a cos b = (sin(a + b) + sin(a − b))
2

Linéarisation :

1 + cos(2a) 1 − cos(2a)
cos2 a = sin2 a =
2 2
1.5. RACINES N -IÈMES DE L’UNITÉ. HORS-PROGRAMME 11

Méthode (Calcul d’intégrales grâce à la linéarisation)

On a
Z π Z π
2
2 1 + cos(2t)
2
cos(t) dt = dt
0 0 2
 π
π sin(2t) 2
= +
4 4 0
π
=
4
Z π
2 π
De même, sin(t)2 dt = .
0 4

1.5 Racines n-ièmes de l’unité. Hors-programme


Soit n ∈ N∗ , on appelle racine n-ième de l’unité un nombre complexe z tel que z n = 1. On note Un
l’ensemble des racines n-ièmes de l’unité.

Proposition 10

— ]Un = n
2kπ
— Un = {ei n , k ∈ J0, n − 1K}
— ∀z ∈ Un , |z| = 1 et z = z1 ∈ Un

— U1 = {1}, U2 = {1, −1}, U3 = {1, j, j 2 } avec j = ei 3 , U4 = {1, i, −1, −i}
n−1
Y 2kπ
— zn − 1 = (z − ei n )
k=0
n−1 n−1 2π
X
i 2kπ
X
i 2π
k 1 − ei n n
— Si n ≥ 2, e n = e n = 2π =0
k=0 k=0 1 − ei n
12 CHAPITRE 1. NOMBRES COMPLEXES
Chapitre 2

Révisions d’analyse

2.1 Suites et séries


2.1.1 Déterminer le terme général
Récurrence
Pour s’entraı̂ner. Exercice 1
Suite arithmético-géométrique
Rappel. Soit (un )n∈N définie par u0 ∈ R et pour tout entier n, un+1 = aun + b avec a, b ∈ R
On suppose que a 6= 1 et b 6= 0 sinon nous avons affaire à une suite arithmétique ou géométrique. On
b
pose ` = 1−a et pour tout entier n, vn = un − `. On a ainsi pour tout entier n, vn+1 = aun + b − ` =
b b
aun + b − 1−a = aun − a 1−a = avn . Donc (vn )n∈N est une suite géométrique de raison a. Comme pour
tout entier n on a vn = v0 an , on obtient un = v0 an + ` = (u0 − `)an + `. De plus (un )n∈N converge si et
b
seulement si |a| < 1 et sa limite est ` = 1−a .
Pour s’entraı̂ner. Exercice 2
Télescopage
n
X
Rappel. Soit (un )n∈N une suite. Pour tout entier n, on a uk+1 − uk = un+1 − u0 .
k=0

Somme des termes d’une suite géométrique


Rappel. Soit a ∈ C \ {1}, pour tous les entiers m, n avec m ≤ n, on a
n
X 1 − an−m+1
ak = am
1−a
k=m

Formule d’Abel
Rappel. Soit (an )n∈N et (bn )n∈N deux suites. On a pour tout entier n :
n
X n−1
X
ak (bk+1 − bk ) = an bn+1 − a0 b0 − bk+1 (ak+1 − ak )
k=0 k=0

2.1.2 Déterminer la nature et en cas de convergence la limite


Théorème d’encadrement
Rappel. Soit (un )n∈N , (vn )n∈N et (wn )n∈N trois suites réelles, on suppose que (un )n∈N et (wn )n∈N
convergent vers une même limite ` et qu’à partir d’un certain rang N , on a pour tout n ≥ N , un ≤ vn ≤ wn .
On a alors que (vn )n∈N converge vers `.

13
14 CHAPITRE 2. RÉVISIONS D’ANALYSE

Théorème de la limite monotone

Rappel. Soit (un )n∈N une suite réelle.


Si (un )n∈N est croissante alors soit elle est majorée et elle converge, soit elle n’est pas majorée et lim un =
n→+∞
+∞.
Si (un )n∈N est décroissante alors soit elle est minorée et elle converge, soit elle n’est pas minorée et
lim un = −∞.
n→+∞

Suites adjacentes

Rappel. Soit (un )n∈N et (vn )n∈N deux suites. On dit qu’elles sont adjacentes si elles sont de monotonies
contraires et si lim un − vn = 0.
n→+∞
Deux suites adjacentes convergent vers une même limite.

Croissances comparées

Rappel. On pose ∀n ∈ N∗ , un = n!, vn = na , wn = q n et xn = (ln n)b .


un un
1. ∀a ∈ R, ∀q ∈ R+ , ∀b ∈ R, lim = lim w = lim uxnn = +∞
n→+∞ vn n→+∞ n n→+∞
2. Si q > 1, ∀a, b ∈ R, lim wvnn = lim wxnn = +∞
n→+∞ n→+∞
3. Si q < 1, ∀a, b ∈ R, lim wvnn = lim wxnn = 0
n→+∞ n→+∞
vn
4. ∀a > 0, ∀b ∈ R, lim xn = +∞
n→+∞

On peut résumer ainsi : pour q > 1, a > 0 : n! >> q n >> na >> (ln n)b
pour q < 1, a > 0 : n! >> na >> (ln n)b >> q n

Séries de références : séries de Riemann, série exponentielle, série géométrique (et ses dérivées)
X 1
Rappel. 1. converge si et seulement si α > 1.

n≥1
X xn
2. ∀x ∈ R, converge et sa somme vaut ex
n!
n≥0
X
3. ∀x ∈] − 1, 1[, xn converge et sa somme vaut 1
1−x
n≥0
X
4. ∀x ∈] − 1, 1[, nxn−1 converge et sa somme vaut 1
(1−x)2
n≥1
X
5. ∀x ∈] − 1, 1[, n(n − 1)xn−2 converge et sa somme vaut 2
(1−x)3
n≥2

2.2 Fonctions de la variable réelle


2.2.1 Continuité
Prolongement par continuité

Rappel. Soit f une fonction continue sur un intervalle I privé d’un point x0 (x0 peut être au bord de I
ou à l’intérieur). On dit que f est prolongeable par continuité en x0 si lim f (x) existe et est finie.
x→x0

Théorème de la bijection

Rappel. Soit f : I → J une fonction continue strictement monotone. On a alors : f est une bijection de
f (I) vers I, et sa réciproque f −1 est continue et de même monotonie que f .

Pour s’entraı̂ner. Exercices 4 et 9


2.2. FONCTIONS DE LA VARIABLE RÉELLE 15

2.2.2 Dérivabilité
Calcul de dérivées (en particulier composition et réciproque)

Rappel. Soit f : I → J et g : J → K deux fonctions dérivables. Alors g ◦ f est dérivable et : ∀x ∈


I, (g ◦ f )0 (x) = f 0 (x)g 0 ◦ f (x)
Soit f : I → J une bijection dérivable. f −1 est dérivable sur J \ {x ∈ J, f 0 f −1 (x) = 0} et pour tout x

0
appartenant à cet ensemble, f −1 (x) = f 0 (f −1
1
(x))

Formule de Leibniz

Rappel. Soit f et g deux fonctions de classe C n sur I. On a alors, pour tout x ∈ I, (f g)(n) (x) =
n  
X n (k)
f (x)g (n−k) (x).
k
k=0

Théorème des accroissements finis et inégalités.

Rappel. Soit f une fonction continue sur [a, b] et dérivable sur ]a, b[. On a d’une part :

f (b) − f (a)
∃c ∈]a, b[, f 0 (c) =
b−a
Si de plus on a : ∃m, M ∈ R, ∀x ∈]a, b[, m ≤ f 0 (x) ≤ M alors

f (b) − f (a)
m≤ ≤M
b−a
Pour s’entraı̂ner. Exercice 4

2.2.3 Intégration sur un segment


Calcul de primitives

Pour s’entraı̂ner. Exercice 8

Intégration par parties

Rappel. Soit f et g deux fonctions de classe C 1 , on a alors


Z b Z b
0
f (t)g (t)dt = [f (t)g(t)]ba − f 0 (t)g(t)dt
a a

En général, on dérive selon cet ordre : arctan, ln, polynôme, exponentielle, fonction trigonométrique
(ALPET).

Pour s’entraı̂ner. Exercice 8

Changement de variable

Rappel. Soit f une fonction continue et φ une bijection de classe C 1 , on a alors


Z b Z φ−1 (b)
f (t)dt = f (φ(t))φ0 (t)dt
a φ−1 (a)

Pour s’entraı̂ner. Exercice 8


16 CHAPITRE 2. RÉVISIONS D’ANALYSE
Chapitre 3

Fonctions polynômiales

3.1 Définition
Définition 1

Soit n ∈ N∗ , (a0 , a1 , . . . , an ) ∈ Rn+1 \ {0, 0, . . . , 0}, on définit un polynôme non nul P par
n
X
n
P (X) = an X + an−1 X n−1 + . . . + a0 = ak X k où n = max{k ∈ N, ak 6= 0}.
k=0
X est appelé l’indéterminée.
n le degré de P , n = deg P et an le coefficient dominant.
0 désigne le polynôme nul, par convention deg 0 = −∞
On note R[X] l’ensemble des polynômes réels.
On note Rn [X] l’ensemble des polynômes réels de degré inférieur ou égal à n.

Remarque.
— les polynômes de degré 0 sont appelés les polynômes constants
— les polynômes de la forme ak X k avec ak 6= 0 sont appelés monômes
— les polynômes dont le coefficient dominant est égal à 1 sont appelés polynômes unitaires

Proposition 1

On définit l’addition de polynôme ainsi :


n m max(n,m)
X X X
k k
Soit P, Q ∈ R[X] avec P (X) = ak X et Q(X) = bk X alors (P + Q)(X) = (ak +
k=0 k=0 k=0
bk )X k où si n < m, ∀k ∈ Jn + 1, mK, ak = 0 et si m < n, ∀k ∈ Jm + 1, nK, bk = 0.
Ainsi, deg (P + Q) ≤ max(deg P, deg Q).

Remarque. Si deg P 6= deg Q alors deg (P + Q) = max(deg P, deg Q).


Si deg P = deg Q alors on ne peut rien dire de mieux : en effet X 12 +2X 12 = 3X 12 mais 12X 17 +(−12X 17 +
X) = X

Théorème 1

R[X] est un espace vectoriel.


Rn [X] est un espace vectoriel de dimension n + 1 dont la famille (1, X, . . . , X n ) est la base
canonique.

17
18 CHAPITRE 3. FONCTIONS POLYNÔMIALES

Proposition 2

Soit n ∈ N∗ . On dit que la famille de polynômes (P1 , P2 , . . . , Pn ) est échelonnée en degré si


deg P1 < deg P2 < . . . < deg Pn . Toute famille échelonnée en degré est libre.

Proposition 3

On définit le produit de polynôme ainsi :


Xn m
X n+m
X
Soit P, Q ∈ R[X] avec P (X) = ak X k et Q(X) = bk X k alors (P Q)(X) = ck X k où
k=0 k=0 k=0

k
X
ck = ai bk−i
i=0

avec encore ai = 0 pour i > n et bi = 0 pour i > m.


On a ainsi deg P Q = deg P + deg Q

Proposition 4

P Q = 0 si et seulement si P = 0 ou Q = 0.

Méthode

Pour les questions du type : Montrer que f : P 7→ f (P ) est un endomorphisme de Rn [X].


La linéarité ne pose souvent aucun soucis. Il ne faut pas oublier par contre de vérifier que f (P )
appartient à Rn [X]. Deux situations :
— la plus simple : une étude directe du degré suffit. Par exemple pour f (P ) = XP 0 (X) −
4X 2 P 00 (X).
— un peu plus ardu, lorsque l’étude directe ne suffit pas. Il faut alors vérifier que les termes
qui “gênent” s’annulent. Par exemple pour f (P ) = nXP (X) − X 2 P 0 (X) il faut regarder
le coefficient en X n+1 , pour f (P ) = n(n − 1)X 2 P (X) − 2n(n − 1)X 3 P 0 (X) + X 4 P 00 (X)
il faut regarder les coefficients en X n+2 et X n+1 .
Une manière efficace de rédiger cela : pour f (P ) = nXP (X)−X 2 P 0 (X), dans un premier
temps on vérifie la linéarité. Ensuite on vérifie que si P ∈ Rn−1 [X] alors f (P ) ∈ Rn [X]
par une étude directe du degré. Puis on calcule f (X n ) qui doit appartenir à Rn [X].
Ainsi pour tout polynôme P ∈ Rn [X], P (X) = an X n + Q(X) où Q ∈ Rn−1 [X] et donc
f (P ) = an f (X n ) + f (Q) ∈ Rn [X].

3.2 Propriétés analytiques


Définition 2

On confondra dans cette partie polynôme réel et fonction polynomiale. On identifiera donc
n
X P : R −→ R
P (X) = ak X k et .
k=0 x 7−→ P (x)
3.2. PROPRIÉTÉS ANALYTIQUES 19

Remarque. Une fonction polynômiale est de classe C ∞ .

Proposition 5

Soit P une fonction polynômiale de degré n supérieur ou égal à 1 et de coefficient dominant an .


(
+∞ si an > 0
lim P (x) =
x→+∞ −∞ si an < 0
 (
+∞ si an > 0 et n pair

lim P (x) = an < 0 et n impair
x→−∞ 
−∞ sinon

Définition 3

Soit P une fonction polynômiale. On dit qu’un réel x0 est une racine de P si P (x0 ) = 0.

Proposition 6

Toute fonction polynômiale de degré impair admet au moins une racine.

Démonstration. D’après la proposition sur les limites en l’infini, comme le degré est impair, les limites en
l’infini sont opposées. Le théorème des valeurs intermédiaires (les fonctions polynômiales sont continues)
nous assure ainsi l’existence d’une racine.

Proposition 7

Si x0 est une racine d’une fonction polynômiale P , alors on peut factoriser P (x) par (x − x0 ).

Définition 4

Soit A, B ∈ R[X], on dit que B divise A si ∃Q ∈ K[X] tel que A = BQ.

2
Exemple. 6X − 12 divise X 3 − 8, en effet X 3 − 8 = (X − 2)(X 2 + 2X + 4) = (6X − 12)( X6 + X
3 + 23 )
20 CHAPITRE 3. FONCTIONS POLYNÔMIALES

Définition 5

Soit P ∈ R[X], on définit par P 0 le polynôme dérivé de P par P 0 = 0 si deg P ≤ 0 et si


n
X Xn n−1
X
P (X) = ak X k alors P 0 (X) = ak kX k−1 = ak+1 (k + 1)X k .
k=0 k=1 k=0
Pour j ∈ N∗ , on pose P (j) le polynôme dérivé de P (j) . Par convention P (0) = P .
X n
Si P (X) = ak X k alors
k=0

n n
X X k!
P (j) (X) = k(k − 1) . . . (k − j + 1)ak X k−j = ak X k−j
(k − j)!
k=j k=j
n−j n−j
X X (k + j)!
= (k + j)(k + j − 1) . . . (k + 1)ak+j X k = ak+j X k
k!
k=0 k=0

Si deg P = n alors pour j ≤ n, deg P (j) = n − j


Si deg P ≤ n, alors P (n+1) = 0.

Proposition 8

n
P (j) (0)
X
On en déduit que si P (X) = ak X k alors ∀j ∈ J0, nK, aj = j! .
k=0

Définition 6

Soit P ∈ R[X], a ∈ K, α ∈ N∗ , on dit que a est une racine d’ordre α ou de multiplicité α de P


si (X − a)α divise P et (X − a)α+1 ne divise pas P .
Autrement dit : a est une racine de multiplicité α de P s’il existe un polynôme Q tel que pour
tout réel x, P (x) = (x − a)α Q(x) avec Q(a) 6= 0.

Théorème 2

Soit P ∈ R[X], a ∈ R, α ∈ N∗ , si a est une racine d’ordre α de P , alors a est racine d’ordre
α − j de P (j) , ∀j ∈ J1, α − 1K.

Démonstration. On peut écrire P (X) = (X − a)α Q(X). Soit j ∈ J1, α − 1K.


P 0 (X) = α(X − a)α−1 Q(X) + Q0 (X)(X − a)α = (X − a)j−1 Q1 (X) et a n’est pas une racine de Q1 (X) car
n’est pas une racine de Q(X). On obtient le résultant par récurrence (ou bien en itérant).

Théorème 3

Un polynôme change de signe en une racine si et seulement si sa multiplicité est impaire.

Démonstration. Soit a une racine de multiplicité α de P . On sait qu’il existe un polynôme Q tel que
pour tout réel x, P (x) = (x − a)α Q(x) avec Q(a) 6= 0. Comme Q est une fonction polynômiale, elle est
3.3. COMPLÉMENTS HORS PROGRAMME 21

en particulier continue, donc il existe un réel strictement positif ε tel que pour tout x appartenant à
l’intervalle ]a − ε, a + ε[, Q(x) ne change pas de signe. Ainsi, si α est pair, P ne change pas de signe au
voisinage de a, si α est impair, P change de signe.

Corollaire 1

Un polynôme P admet un extremum local en x0 si et seulement si x0 est une racine de P 0 de


multiplicité impaire.

3.3 Compléments hors programme

3.3.1 Formule de Taylor

Théorème 4

Soit P ∈ K[X], deg P > 1, x0 ∈ K.


n n
X
k
X P (k) (x0 )
Si P (X) = ak X alors P (X) = (X − x0 )k .
k!
k=0 k=0

Démonstration.

n
X
P (X) = ak (X − x0 + x0 )k
k=0
n k  
j k−j k
X X
= ak (X − x0 ) x0
j
k=0 j=0
n k
k!
(X − x0 )j xk−j
X X
= ak 0
j! − k − j)!
k=0 j=0
n n
k!
ak (X − x0 )j xk−j
XX
= 0
j!(k − j)!
j=0 k=j
n n
(X − x0 )j X k!
ak xk−j
X
= 0
j! (k − j)!
j=0 k=j
n
X (X − x0 )j (j)
= P (x0 )
j!
j=0
22 CHAPITRE 3. FONCTIONS POLYNÔMIALES

3.3.2 Factorisation dans R[X]


Théorème 5

de d’Alembert-Gauss.
Tout polynôme de C[X] non constant admet au moins une racine.
p
Y
Conséquence : tout polynôme P de C[X] peut s’écrire sous la forme λ (X − xk )αk avec
k=1
p
X
αk = deg P
k=1

Proposition 9

Soit P ∈ R[X], deg P ≥ 1.


x0 ∈ C est une racine d’ordre α de P si et seulement si x¯0 est une racine d’ordre α de P .

Démonstration. On montre que si x0 est une racine de P alors x¯0 est une racine de P , cela suffit car on
peut ensuite appliquer ce résultat sur P 0 , P (2) , . . . , P (α−1) .
n
X
P (x0 ) = ak xk0 = 0
k=0
n
X n
X
k
P (x¯0 ) = ak x¯0 = ak xk0 = 0
k=0 k=0

Corollaire 2

Tout polynôme non constant de R[X] peut s’écrire sous la forme


p
Y q
Y
αj
P (X) = λ (X − xj ) × (X − zj )βj (X − z¯j )βj
j=1 j=1
Yp Yq
=λ (X − xj )αj × (X 2 + aj X + bj )βj
j=1 j=1

avec a2j − 4bj < 0.

3.3.3 Division euclidienne


Théorème 6

Division euclidienne dans R[X].


Soit A, B ∈ R[X], B 6= 0 alors ∃!(Q, R) ∈ R[X]2 tel que A = BQ + R et deg R < deg B
R est appelé le reste de la division euclidienne.

Démonstration. unicité : si A = BQ1 + R1 = BQ2 + R2 avec deg R1 < deg B et deg R2 < deg B alors
R1 − R2 = B(Q1 − Q2 ).
Si Q1 −Q2 6= 0 alors deg B(Q1 −Q2 ) = deg B+deg (Q1 −Q2 ) ≥ deg B. Or deg (R1 −R2 ) ≤ max(deg R1 , deg R2 ) <
3.3. COMPLÉMENTS HORS PROGRAMME 23

deg B. On obtient donc une contradiction, donc Q1 = Q2 et on a alors R1 = R2 .


existence : Si A = 0, alors A = B × 0 + 0, d’où l’existence.
Xn Xm
k
Soit A 6= 0, A(X) = ak X avec an 6= 0 et B(X) = bk X k avec bm 6= 0. Si m = deg B > n = deg A
k=0 k=0
alors A = B × 0 + A, sinon on va faire une récurrence sur le degré de A :
Pour n ≥ m, on pose P(n) :“∃Q, R ∈ K[X], deg R < deg B, A = BQ + R”
Initialisation : si n = m alors

m−1 m−1 m−1


am m
X
k am X k am X
A(X) = bm X + ak X + bk X − bk X k
bm bm bm
k=0 k=0 k=0
m−1
am X am
= B(X) + (ak − bk )X k
bm bm
k=0
= BQ + R

Ainsi P(m) est vraie.


Hérédité : Soit n ≥ m, on suppose P(n) vraie.
n+1
X
On suppose que deg A = n + 1 donc on a A(X) = ak X k
k=0
m−1
an+1 n+1−m
X an+1 k+n+1−m
Donc A(X) − bm X B(X) = A(X) − an+1 X n+1 − bk X qui est un polynôme de
bm
k=0
degré strictement plus petit que n + 1.
D’après l’hypothèse de récurrence sur ce polynôme, il existe Q1 , R1 tel que A(X) − abn+1 m
X n+1−m B(X) =
an+1 n+1−m
BQ1 (X) + R1 (X) et donc A(X) = B(X)(Q1 (X) + bm X ) + R1 (X) d’où le résultat.

Remarque. Si B divise A alors R = 0

Exemple. Effectuez la division euclidienne de A(X) = 3X 5 + 4X 2 + 1 par B(X) = X 2 + 2X + 3 ;

Proposition 10

Détermination du reste de la division euclidienne par X − a.


Soit A ∈ R[X], a ∈ R, par division euclidienne, il existe Q et R uniques dans R[X] tels que
A(X) = (X − a)Q(X) + R(X) avec deg R = 0 ou R = 0.
En évaluant en a, on obtient A(a) = R(a) comme R est constant ou nul, R = A(a).

Exemple. Division euclidienne de X n par X − a.


X n = (X − a)Q(X) + R(X) et donc R(X) = an .

Proposition 11

Soit A ∈ R[X], a ∈ R.
X − a divise A si et seulement si a est une racine de A.
Soit x1 , x2 , . . . , xn des éléments distincts de R.
(X − x1 )(X − x2 ) . . . (X − xn ) divise A si et seulement si x1 , x2 , . . . , xn sont des racines de A.
24 CHAPITRE 3. FONCTIONS POLYNÔMIALES

Proposition 12

Division euclidienne par un polynôme de degré 2.


Soit B un polynôme de degré 2.
1er cas : B a deux racines distinctes a et b. Alors A(X) = B(X)Q(X) + R(X) avec deg R ≤ 1.
Comme R(X) = cX + d, on obtient en évaluant en a et b :
(
A(a) = R(a) = ca + d
et donc c = A(a)−A(b)
a−b et d = A(a) − ca
A(b) = R(b) = cb + d
2ème cas : B possède une racine d’ordre 2 a (on dit racine double), alors B(X) = λ(X − a)2 .
Par la division euclidienne, on a A(X) = B(X)Q(X)+R(X) avec R(X) = cX +d. On évalue en
a : A(a) = R(a) = ca + d. On dérive l’égalit de la division euclidienne : A0 (X) = B 0 X)Q(X) +
B(X)Q0 (X) + R0 (X) et on évalue en a : A0 (a) = R0 (a) = c.
Donc c = A0 (a) et d = A(a) − A0 (a)a
Chapitre 4

Développements limités

4.1 Formules de Taylor

Théorème 1 (Formule de Taylor avec reste intégral)

Soit n ∈ N et f une fonction de classe C n+1 sur I. Alors pour tout a, b ∈ I,

f 00 (a) f (n) (a) b


(b − t)n (n+1)
Z
0
f (b) = f (a) + f (a)(b − a) + (b − a)2 + . . . + (b − a)n + f (t)dt
2! n! a n!
n Z b
X f (k) (a) k (b − t)n (n+1)
= (b − a) + f (t)dt
k! a n!
k=0

Cas particulier à connaı̂tre : a = 0 et b = x

f 00 (0) 2 f (n) (0) n x


(x − t)n (n+1)
Z
0
f (x) = f (0) + f (0)x + x + ... + x + f (t)dt
2! n! 0 n!
n Z x
X f (k) (0) k (x − t)n (n+1)
= x + f (t)dt
k! 0 n!
k=0

n
X f (k) (a)
Démonstration. On montre le résultat par récurrence. On pose P(n) : “f (b) = (b − a)k +
k!
k=0
b
(b − t)n (n+1)
Z
f (t)dt ”.
a n!
L’initialisation est immédiate.
b
(b − t)n (n+1)
Z
Soit n ∈ N, on suppose que P(n) est vraie. On fait une intégration par parties de f (t)dt
a n!
n+1 (b−t)n
en remarquant que − (b−t)
(n+1)! est une primitive de n! . On obtient

b b Z b
(b − t)n (n+1) (b − t)n+1 (n+1) (b − t)n+1 (n+2)
Z 
f (t)dt = − f (t) + f (t)dt
a n! (n + 1)! a a (n + 1)!
Z b
(b − a)n+1 (n+1) (b − t)n+1 (n+2)
= f (a) + f (t)dt
(n + 1)! a (n + 1)!

D’où le résultat.

25
26 CHAPITRE 4. DÉVELOPPEMENTS LIMITÉS

Théorème 2 (Inégalité de Taylor-Lagrange)

Soit n ∈ N, f une fonction de classe C n+1 sur un intervalle I et a, b ∈ I,


n
X f (k) (a) M |b − a|n+1
f (b) − (b − a)k ≤ , où M = max f (n+1) (t)
k! (n + 1)! t∈[a,b]
k=0

Cas particulier à connaı̂tre : a = 0 et b = x


n
X f (k) (0) M |x|n+1
f (x) − xk ≤ , où M = max f (n+1) (t)
k! (n + 1)! t∈[0,x]
k=0

Démonstration. On part de la formule de Taylor-Lagrange avec reste intégral. Comme f ∈ C n+1 , f (n+1)
est continue sur [a, b] et donc y est bornée par un certain M ∈ R+ . On obtient ainsi :

n b b
f (k) (a) (b − t)n (n+1) (b − t)n (n+1)
X Z Z
k
f (b) − (b − a) = f (t)dt ≤ f (t) dt
k! a n! a n!
k=0
b
(b − t)n M |b − a|n+1
Z
≤M dt =
a n! (n + 1)!

Théorème 3 (Formule de Taylor-Young)

Soit n ∈ N, f une fonction de classe C n sur I et a ∈ I. Alors au voisinage de a,


n
X f (k) (a)
f (x) = (x − a)k + o((x − a)n ))
a k!
k=0

En particulier, pour a = 0
n
X f (k) (0)
f (x) = xk + o(xn ))
0 k!
k=0

Démonstration. Dans le cas où f est de classe C n .


On applique l’inégalité de Taylor-Lagrange et on obtient que

n
X f (k) (a) M |x − a|n+1
f (x) − (x − a)k ≤ , où M = max f (n+1) (t)
k! (n + 1)! t∈[a,b]
k=0

M |x−a|n+1
or (n+1)! = o ((x − a)n ) d’où le résultat.
a

x −x
Exemple. Soit f la fonction définie sur R par ∀x ∈ R, f (x) = e +e2 que l’on appelle fonction cosinus
hyperbolique, notée ch. On peut rapidement voir que ∀k ∈ N, f (2k) (0) = 1 et f (2k+1) (0) = 0. On a ainsi,
∀n ∈ N
n
X x2k
+ o x2n

f (x) =
(2k)!
k=0
4.2. DÉFINITION - PREMIÈRES PROPRIÉTÉS 27

4.2 Définition - Premières propriétés


Soit a ∈ R et f une fonction définie sur un voisinage de a.

Définition 1

Étant donné n ∈ N, on dit que f admet un développement limité à l’ordre n au voisinage de a


si et seulement si il existe n + 1 réels a0 , a1 , . . . , an tels qu’au voisinage de a on ait

f (x) = a0 + a1 (x − a) + a2 (x − a)2 + . . . + an (x − a)n + o ((x − a)n )

Remarque. — L’égalité précédente est valable au voisinage de a dans un ensemble A où f est définie,
c’est à dire un ensemble de la forme ]a − α, a + α[\a, ou ]a − α, a[ ou ]a, a + α[. 
— Pour tout p ∈ N, pour tout k ∈ J0, pK, on a o ((x − a)p ) = (x − a)k o (x − a)p−k . L’égalité étant
valable dans les deux sens !
Théorème 4

Si f admet un DL à l’ordre n au voisinage de a alors celui ci est unique. Si f admet un DL à


l’ordre n au voisinage de a alors pour tout p ∈ J0, nK f admet un DL à l’ordre p au voisinage
de a. Ce dernier s’obtient par troncature du premier.

Théorème 5

Soit I un intervalle de R, f : I → R de classe C 1 sur I et a ∈ I. Si f 0 admet un DL d’ordre n


au voisinage de a donné par :

f 0 (x) = a0 + a1 (x − a) + . . . + an (x − a)n + o ((x − a)n )

alors f admet un DL d’ordre n + 1 au voisinage de a donné par

(x − a)2 (x − a)n+1
o (x − a)n+1

f (x) = f (a) + a0 (x − a) + a1 + . . . + an
2 n+1

Remarque. ATTENTION ! ! ! ! ! Il se peut fort bien que f admette un développement limité au voisinage
de a et que f 0 n’en admette pas ! ! !
Soit f : R → R définie par f (x) = x + x3 sin x12 et f (0) = 0.


f admet un développement limité d’ordre 2 au voisinage de 0 et f 0 n’admet de développement limité au


voisinage de 0 à aucun ordre ! ! !

4.3 Opérations sur les développements limités


Théorème 6

Soit f, g deux fonctions de R dans R définie au voisinage de 0. Si f et g admettent des


développements limités à l’ordre n au voisinage de 0 alors f + g et f g aussi.

Remarque. Obtenir le manière effective le DL d’une somme ou d’un produit ne pose pas de problème
particulier. Pour ce qui est de l’obtention effective du DL d’un quotient la stratégie est la suivante : On
1 1
utilise le DL de 1−u ou de 1+u et on se ramène à un produit.
28 CHAPITRE 4. DÉVELOPPEMENTS LIMITÉS

Pour la composition de DL, un exemple vaut mieux qu’un long discours.

Exemple. Un DL en 0 d’ordre 3 de f : x 7→ exp(sin x) :

(sin x)2 (sin x)3


f (x) = 1 + sin x + + + o((sin x)3 )
2 3!
 2  3
x3 3) x3 3)

x 3
 x − 6 + o(x x − 6 + o(x
=1+ x− + o(x3 ) + + + o(x3 )
6 2 3!
x3 x2 x3 x2
=1+x− + o(x3 ) + + o(x3 ) + + o(x3 ) = 1 + x + + o(x3 )
6 2 6 2

4.4 Développements limités et parité

Proposition 1

Soit f une fonction de R dans R définie sur un intervalle de la forme ] − α, α[ avec α > 0 et
admettant un développement limité à l’ordre n au voisinage de 0 donné par f (x) = P (x)+o(xn )
où P ∈ Rn [X]. Alors x 7→ f (−x) admet un DL d’ordre n au voisinage de 0 donné par f (−x) =
P (−x) + o(xn ).
En particulier si f est paire alors P est paire aussi (ce qui signifie que ses coefficients d’indice
impairs sont nuls). De même, si f est impaire alors P est impaire aussi (ce qui signifie que ses
coefficients d’indice pair sont nuls).

4.5 Applications des développements limités

4.5.1 Recherche d’équivalents et de limites

Nous savons que l’équivalence des fonctions n’est pas compatible avec la somme. Aussi, pour chercher
un équivalent ou la limite d’une somme complexe, il convient de passer par les développements limités.
Une fois obtenu le développement limité, on utilise la proposition suivante.

Proposition 2

Soit f une fonction admettant au voisinage de 0 un DL d’ordre n dont la partie régulière


Xn
ak xk n’est pas nulle. Si p est le plus petit indice tel que ap 6= 0, on a
k=0

f (x) ∼ ap xp .
x→0

Remarque. On doit donc “pousser le développement limité” jusqu’à ce qu’on obtienne un terme non nul
dans la partie principale. Il est conseillé de réfléchir préalablement à l’ordre du DL que l’on va écrire.
1
Pour déterminer la limite ou un équivalent d’une fonction en ±∞, on pose X = et on utilise des
x
développements limités au voisinage de 0. On procède de même avec le terme général d’une suite.
4.5. APPLICATIONS DES DÉVELOPPEMENTS LIMITÉS 29

4.5.2 Allure locale du graphe d’une fonction - Tangente


Proposition 3

Si la fonction f est définie en x0 , elle possède un DL d’ordre 1 au voisinage de x0 si et seulement


si elle f est dérivable en x0 . Sa courbe représentative possède alors une tangente au point
d’abscisse x0 .
Si le DL est
f (x) = a0 + a1 (x − x0 ) + o((x − x0 )),
on a f (x0 ) = a0 , f 0 (x0 ) = a1 et une équation de la tangente au point d’abscisse x0 est y =
a0 + a1 (x − x0 ).

Le terme suivant non nul dans le DL donne l’allure de la courbe au voisinage du point d’abscisse x0 .

Proposition 4

On suppose qu’au voisinage de x0 , on a

f (x) = a0 + a1 (x − x0 ) + ap (x − x0 )p + o((x − x0 )p ) avec ap 6= 0.

Alors, pour x proche de x0 , f (x) − (a0 + a1 (x − x0 )) a le signe de ap (x − x0 )p .


Si p est pair, cette expression a toujours le signe de ap ; si p est impair, (x − x0 )p change de
signe en x0 et la courbe présente un point d’inflexion.

Corollaire 1

On suppose qu’au voisinage de x0 , on a

f (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )2 + o((x − x0 )2 ).

Si a2 > 0, alors f possède un minimum local en x0 ; si a2 < 0, alors f possède un maximum


local en x0 .

4.5.3 Recherche d’asymptotes obliques


Définition 2

On dit que la courbe représentative de f possède une asymptote d’équation y = a0 x + a1 s’il


existe une fonction ε tendant vers 0 en ±∞ telle que

f (x) = a0 x + a1 + ε(x).

1
Pour pouvoir utiliser les développements limités, on pose X = ; l’égalité précédente équivaut à
x
       
1 a0 1 1 1
f = + a1 + ε ou Xf = a0 + a1 X + Xε = a0 + a1 X + o(X).
X X X X X
 
1
Il s’agit donc d’un DL de Xf au voisinage de 0.
X
30 CHAPITRE 4. DÉVELOPPEMENTS LIMITÉS

Si on a un terme de plus dans le développement limité, il donnera la position de la courbe par rapport
à l’asymptote.

Proposition 5

Supposons qu’au voisinage de 0 on ait


 
1
Xf = a0 + a1 X + ap X p + o(X p ), avec p > 1 et ap 6= 0.
X

On obtient, au voisinage de l’infini,


 
ap 1
f (x) = a0 x + a1 + p−1 + o .
x xp−1

Alors le graphe de f possède une asymptote oblique d’équation y = ax + a1 . La position de la


courbe par rapport à l’asymptote oblique est donné par le signe de f (x) − (a0 x + a1 ) qui, au
ap
voisinage de l’infini, est le signe de p−1 .
x

4.6 Formulaire
Les développements limités suivants sont à connaı̂tre par coeur sans hésitation. Normalement il ne
sera jamais demandé de développements limités au delà de l’ordre 3, c’est pourquoi la formule générale
est donnée et dessous l’ordre 3.
Tous les développements limités ci-dessous sont au voisinage de 0.

n
xk n
xk (−1)k+1
X
exp(x) = + o(xn ) X
k! ln(1 + x) = + o(xn )
k=0 k
k=1
x2 x3
=1+x+ + + o(x3 ) x2 x3
2 3! =x− + + o(x3 )
2 3

n
x2k+1 (−1)k n
x2k (−1)k
X
sin(x) = + o(x2n+1 ) X
(2k + 1)! cos(x) = + o(x2n )
k=0 (2k)!
k=0
x3
=x− + o(x3 ) x2
3! =1− + o(x3 )
2

k−1
Y
xk (α − j)
n
α
X j=0
(1 + x) = + o(xn )
k!
k=0
α(α − 1)x2 α(α − 1)(α − 2)x3
= 1 + αx + + + o(x3 )
2 3!

En particulier :
4.6. FORMULAIRE 31

k−1
Y 
1
xk −j
√ n 2
X j=0
1+x= + o(xn )
k!
k=0
x x2 x3
=1+ − + + o(x3 )
2 8 16

n
1 X
= xk (−1)k + o(xn )
1+x
k=0
= 1 − x + x2 − x3 + o(x3 )

n
1 X
= xk + o(xn )
1−x
k=0
= 1 + x + x2 + x3 + o(x3 )
32 CHAPITRE 4. DÉVELOPPEMENTS LIMITÉS
Chapitre 5

Révisions d’algèbre linéaire

5.1 Espaces vectoriels


Question 1. Comment montrer que F est un espace vectoriel ?
1. En montrant que c’est un sous-espace vectoriel de référence. Il faut montrer que F ⊂ E où E est
un espace vectoriel de référence (en autres : Rn , R[X], Mn,p (R), RR , RN , L(E, G) où E et G sont
des espaces vectoriels), que F est non vide (en montrant que 0E ∈ F ), et que F est stable par
combinaison linéaire : ∀x, y ∈ F, ∀λ ∈ R, λx + y ∈ F .
2. En montrant que c’est le noyau d’une application linéaire. Cette technique peut donner la dimension
si jamais l’application est une forme linéaire. Par exemple F = {P ∈ R4 [X], P (17) = 0} est un espace
vectoriel de dimension 4 car est le noyau d’une forme linéaire (ψ : R4 [X] → R, ∀P ∈ R4 [X], ψ(P ) =
ψ(17)).
3. En montrant que c’est l’image d’une application linéaire.

Question 2. Comment montrer qu’une famille (x1 , . . . , xn ) est libre ?


n
X
1. En suivant la définition : ∀λ1 , . . . λn ∈ R, λi xi = 0E =⇒ λ1 = λ2 = . . . = λn = 0.
i=1
2. C’est l’image d’une famille libre par une application linéaire injective.
3. Une famille de polynômes échelonnée en degré est libre.
Question 3. Comment montrer qu’une famille (x1 , . . . , xn ) est génératrice ?
n
X
1. En suivant la définition : ∀y ∈ E, ∃λ1 , . . . λn , y = λ i xi
i=1
2. C’est l’image d’une famille génératrice par une application linéaire surjective.

Question 4. Comment montrer qu’une famille (x1 , . . . , xn ) est une base ?


n
X
1. En suivant la définition : ∀y ∈ E, ∃!λ1 , . . . λn , y = λi xi
i=1
2. En montrant qu’elle est libre et génératrice.
3. À l’aide de la dimension : si E est de dimension n, une famille libre de n éléments est une base, une
famille génératrice de n éléments est une base.
4. C’est l’image d’une base par un isomorphisme.
On rappelle que l’intérêt d’avoir une base est d’avoir une écriture unique dans cette base.
Concernant la dimension, on retiendra le vocabulaire suivant : on appelle droite tout sous-espace
vectoriel de dimension 1, plan tout sous-espace vectoriel de dimension 2 et hyperplan tout sous-espace
vectoriel de dimension dim (E) − 1.

Question 5. Comment montrer que deux sous-espaces vectoriels F et G de E sont supplémentaires ?

33
34 CHAPITRE 5. RÉVISIONS D’ALGÈBRE LINÉAIRE

1. On montre que F ∩ G = {0E } puis que tout élément de E s’écrit comme la somme d’une élément
de F et d’un élément de G, très souvent par analyse synthèse (mais parfois cette décomposition se
trouve immédiatement !)
2. En utilisant la dimension : si dim F + dim G = dim E, alors il suffit de montrer que F ∩ G = {0E }
ou bien que tout élément de E s’écrit comme la somme d’un élément de F et d’un élément de G.
3. En dimension finie : la concaténation d’une base de F et d’une base de G donne une base de E.
Théorème 1

Formule de Grassman
Si E et F sont deux sous-espaces vectoriels de dimension finie d’un même espace vectoriel alors

dim (E + F ) = dim E + dim F − dim (E ∩ F )

La preuve utilise le théorème de la base incomplète.

5.2 Applications linéaires


Question 6. Comment montrer qu’une application f est une application linéaire de E dans F ?
On montre d’une part la linéarité : ∀x, y ∈ E, ∀λ ∈ R, f (λx + y) = λf (x) + f (y). Et d’autre part que
∀x ∈ E, f (x) ∈ F (ce qui n’est pas toujours évident pour des polynômes par exemple).

L’ensemble des applications linéaires de E dans F est noté L(E, F ), c’est un espace vectoriel. Si E et F
sont de dimension finie, alors L(E, F ) aussi dim L(E, F ) = dim E × dim F .
Dans ce qui suit, f est une application linéaire de E dans F
Tout savoir sur : le noyau
Ker f = {x ∈ E, f (x) = 0F }.
Déterminer un noyau peut amener à résoudre un système linéaire.
On l’équivalence : Ker f = {0E } ⇔ f est injective.
Tout savoir sur : l’image
Im f = {y ∈ F, ∃x ∈ E, f (x) = y}.
Déterminer une image est simple si on dispose d’une base (e1 , . . . en ) de E : Im f = Vect (f (e1 ), . . . f (en ))
On a l’équivalence : Im f = F ⇔ f est surjective.

Théorème 2

Théorème du rang
Soit f ∈ L(E, F ) où E et F sont de dimension finie. On a alors

dim Ker f + dim Im f = dim E

Quelques applications linéaires particulières :


1. les endomorphismes. Ce sont les applications linéaires de E dans E. On ainsi le droit de considérer
f ◦ f.
2. les isomorphismes. Ce sont les applications linéaires bijectives.
3. les automorphismes. Ce sont les endomorphismes bijectifs.
4. les formes linéaires. Ce sont des applications linéaires de E dans R. En dimension finie, le théorème
du rang nous assure que le noyau d’une forme linéaire non nulle est un hyperplan. On peut aussi
montrer que tout hyperplan de E est le noyau d’une certaine forme linéaire.
5.3. APPLICATIONS LINÉAIRES ET MATRICES 35

5. les projecteurs. Un projecteur est un endomorphisme p vérifiant p◦p = p. On a ainsi Ker p⊕Im p =
E. On parle alors d’un projecteur sur son image parallèlement à son noyau.
6. les symétries. Une symétrie est un endomorphisme s vérifiant s ◦ s = idE . On a ainsi Ker (s +
idE ) ⊕ Ker (s − idE ) = E. On parle alors d’une symétrie par rapport à Ker (s − idE ) parallèlement
à Ker (s + idE ).
On rappelle que si f ∈ L(E, F ) et G est un sous-espace vectoriel de E, alors f|G désigne la restriction
de f sur G. Nous verrons qu’il est très utile de trouver des sous-espaces vectoriels G stables, c’est-à-dire
Im f|G ⊂ G.

5.3 Applications linéaires et matrices


Soit E et F deux espaces vectoriels avec BE = (e1 , . . . , en ) une base de E et BF = (y1 , . . . , yn ) une
base de F .
Définition 1

Soit f ∈ L(E, F ) on appelle matrice de f dans les bases BE et BF la matrice de Mn,p (K) notée
p
X
MatBF ,BE définie par (MatBF ,BE )i,j = ai,j où ∀i ∈ J1, pK, f (ej ) = ai,j yi
i=1

Remarque. Pour un endomorphisme, on peut considérer MatBE (f ) qui est une matrice carrée.
Pour une forme linéaire φ, une matrice de φ sera une matrice ligne.

Définition 2

Soit A ∈ Mn,p (R). On appelle application canoniquement associée à A l’application linéaire de


Rp dans Rn définie par A dans les bases canoniques.

Théorème 3

Soit E, F et G trois R-ev de dimension finie munis respectivement des bases BE ,BF et BG .
Soit f ∈ L(E, F ) et g ∈ L(F, G), alors

MatBG ,BE (g ◦ f ) = MatBG ,BF (g) × MatBF ,BE (f )

Proposition 1

Soit f ∈ L(E, F ) avec E et F de même dimension.


Alors f est un isomorphisme de E sur F si et seulement si sa matrice M = MatBF ,BE (f )
est inversible. Le cas échéant, la matrice de f −1 : F → E est M −1 : MatBE ,BF (f −1 ) =
(MatBF ,BE (f ))−1 .
De plus, quelque soit le choix des bases BE et BF , on a rg MatBF ,BE (f ) = rg f

Définition 3

Soit B1 et B2 deux bases de E. On appelle matrice de passage de B1 à B2 la matrice


MatB2 ,B1 (idE ), notée aussi PB2 ,B1 .
36 CHAPITRE 5. RÉVISIONS D’ALGÈBRE LINÉAIRE

Proposition 2

Changement de base.
Pour écrire la matrice de f de B2 dans B2 à partir de la matrice de f de B1 dans B1 , on a la
formule suivante :
MatB2 (f ) = PB2 ,B1 MatB1 (f )PB1 ,B2 )

Définition 4

On dit que A, B ∈ Mn (R) sont semblables si elles sont chacune la matrice d’une même appli-
cation f dans une base B1 et respectivement dans une base B2 . Autrement dit, il existe une
matrice inversible P telle que A = P BP −1 .

Remarque. Il faut noter que si A = P BP −1 alors pour tout entier n, An = P B n P −1 .

Définition 5
n
X
On considère l’application trace telle que ∀A = (ai,j )1≤i,j≤n ∈ Mn (R), tr(A) = ai,i .
i=1

Proposition 3

La trace est une forme linéaire (les matrices de trace nulle forment donc un hyperplan de
Mn (R)).
On a tr(AB) = tr(BA), ainsi deux matrices semblables ont même trace.

Définition 6

On dit que deux matrices A, B ∈ Mn (R) sont équivalentes s’il existe P, Q ∈ G`n (R) telles que
A = P BQ.

Proposition 4

A et B sont équivalentes si et seulement


 si elles ont le même
rang. En particulier, toute matrice
Ir 0Mr,n−r (R)
de rang r est équivalente à Jr =  
0Mn−r,r (R) 0Mn−r,n−r (R)
Chapitre 6

Réduction des endomorphismes

Dans tout ce chapitre, n est un entier fixé non nul, f un endomorphisme de Rn (ou de E, un espace
vectoriel de dimension n), et A une matrice carrée d’ordre n.

6.1 Valeurs propres, vecteurs propres

Définition 1

Soit λ ∈ R, on dit que λ est une valeur propre de f (respectivement de A), s’il existe x ∈ E,
x 6= 0E tel que f (x) = λx (respectivement, il existe X ∈ Mn,1 (R), X 6= 0Mn,1 (R) tel que
AX = λX).

Définition 2

L’ensemble des valeurs propres de f (respectivement de A) est appelé le spectre de f (respec-


tivement de A) et est noté Sp (f ) (respectivement Sp (A)).

Définition 3

Soit λ ∈ Sp (f ) (respectivement λ ∈ Sp (A)), on dit que x ∈ E, x 6= 0E est un vecteur propre de


f associé à λ si f (x) = λx (respectivement X ∈ Mn,1 (R), X 6= 0Mn,1 (R) est une vecteur propre
de A associé à λ si AX = λX

Exemple. Soit f ∈ L(R2 [X]) telle que pour tout P ∈ R2 [X], f (P ) = (X −1)P 0 +P . Calculer f (1), f (X −1)
et f ((X − 1)2 ). Que peut on en déduire ?
On a f (1) = 1, f (X − 1) = 2(X − 1) et f ((X − 1)2 ) = 3(X − 1)2 . On en déduit que 1 est une valeur propre
de f et le polynôme constant égal à 1 est un vecteur propre associé à la valeur propre 1. De même 2 et
3 sont des valeurs propres et X − 1 est un vecteur propre associé à 2 et (X − 1)2 est un vecteur propre
associé à 3.

37
38 CHAPITRE 6. RÉDUCTION DES ENDOMORPHISMES

6.2 Sous-espaces propres, détermination du spectre

Définition 4

Soit λ ∈ Sp (f ) (respectivement λ ∈ Sp (A)). On appelle sous-espace propre associé à λ, l’en-


semble des vecteurs propres associés à λ et 0E (respectivement 0Mn,1 (R) ). On le note Eλ (f )
(respectivement Eλ (A)).
On a ainsi Eλ (f ) = Ker (f − λidE ) (respectivement Ker (A − λIn ))

Proposition 1

Détermination des valeurs propres.

λ ∈ Sp (f ) ⇔ Eλ (f ) 6= {0E }
⇔ f − λidE n’est pas injectif.
⇔ f − λidE n’est pas bijectif.

Pour les matrices, on utilisera en particulier la dernière équivalence, c’est-à-dire λ ∈ Sp (A) ⇔


A − λIn ∈/ G`n (R).

 
2 −2 1
 
Exemple. Soit A =  2 −3 2. Déterminer le spectre de A.
 
 
−1 2 0
On fait un pivot pour étudier la non-inversibilité de A − λI3 , attention λ est un paramètre inconnu, il faut
prendre garde à ne pas exécuter d’opérations sur les lignes
ou  lescolonnes illicites.    
−1 −1 1
     
On obtient Sp (A) = {−3, 1}. Et même E−3 (A) = Vect −2 et E1 (A) = Vect  0  , 1
     
     
1 1 1

Proposition 2

Deux matrices semblables ont même spectre. Une matrice a le même spectre que sa transposée.

Démonstration. Deux matrices semblables ont même rang, il en est ainsi de même pour A−λIn et B −λIn .
De même, une matrice a même rang que sa transposée.
6.2. SOUS-ESPACES PROPRES, DÉTERMINATION DU SPECTRE 39

Définition 5

Polynôme d’endomorphisme ou de matrice.


m
X m
X
Soit P ∈ R[X], P (X) = ak X k . On définit par P (f ) l’endomorphisme P (f ) = ak f k où
k=0 k=0
f 0 = idE et pour tout k ≥ 1, f k = f ◦ f k−1 .
m
X
De même, on définit par P (A) la matrice P (A) = ak Ak où A0 = In et pour tout k ≥ 1,
k=0
Ak = AAk−1 .
On dit que P est un polynôme annulateur de f (respectivement de A), si P (f ) = 0L(E) (res-
pectivement P (A) = 0Mn (R) ).

Proposition 3

Soit P, Q ∈ R[X]. On a P Q(f ) = P (f ) ◦ Q(f ) = Q(f ) ◦ P (f ).

Proposition 4

Soit A, B ∈ Mn (R) et P ∈ G`n (R) telles que A = P BP −1 , et Q ∈ R[X].


On a : Q(A) = P Q(B)P −1 .

Proposition 5

Soit λ ∈ Sp (f ) et x ∈ Eλ (f ). On a, pour tout entier k, f k (x) = λk x.

Théorème 1

Soit P un polynôme annulateur de f (respectivement de A).

λ ∈ Sp (f ) =⇒ P (λ) = 0

Autrement dit Sp (f ) ⊂ racines de P (respectivement Sp (A) ⊂ racines de P ).

m
X
Démonstration. Soit λ ∈ Sp (f ) et x ∈ Eλ (f ), x 6= 0E . On a P (f )(x) = 0E . Or P (f )(x) = ak f k (x) =
k=0
m
X
k
ak λ x = P (λ)x. Comme x 6= 0E , on a P (λ) = 0.
k=0

Proposition 6

Si x1 , x2 , . . . xp sont des vecteurs propres de f associés aux valeurs propres distinctes


λ1 , λ2 , . . . , λp , alors (x1 , x2 , . . . , xp ) est une famille libre de E.
40 CHAPITRE 6. RÉDUCTION DES ENDOMORPHISMES

Démonstration. On fait une preuve par récurrence. Pas de problème pour l’initialisation. Soit k ∈ N∗ ,
on suppose que si l’on dispose de k vecteurs propres associés à k valeurs propres distinctes, alors la
famille des vecteurs propres est libre. Soit x1 , . . . , xk+1 des vecteurs propres associés aux valeurs propres
k+1
X
distinctes λ1 , . . . , λk+1 . Soit α1 , . . . , αk+1 ∈ R tels que αj xj = 0E . On compose par f , on obtient
j=0
k+1
X
αj λj xj = 0E . On multiplie par λk+1 la première égalité et on lui retranche la deuxième inégalité. On
j=0
k
X
obtient αj (λk+1 − λj )xj = 0E or la famille est libre et les λj sont distincts, ainsi les αj sont égaux à
j=0
0, de même pour αk+1 . On a ainsi démontré le résultat par récurrence.

Corollaire 1

La concaténation de familles libres de sous-espaces propres distincts est une famille libre. En
particulier, la somme de sous-espaces propres est directe.

Corollaire 2

On a card Sp (f ) ≤ dim E.

6.3 Diagonalisation
Définition 6

On dit que f est diagonalisable (respectivement A est diagonalisable) s’il existe une base B de
E telle que MatB (f ) ∈ Dn (respectivement A est semblable à une matrice diagonale).

Théorème 2

f est diagonalisable ⇔ il existe une base de E de vecteurs propres


⇔ E = ⊕λ∈Sp (f ) Eλ (f )
X
⇔ dim Eλ = dim E
λ∈Sp (f )

Corollaire 3

Si card Sp (f ) = dim E alors f est diagonalisable. (Autrement dit, si f a n valeurs propres


distinctes, avec n = dim E, alors f est diagonalisable).

Proposition 7

Si card Sp (f ) = 1, alors f est diagonalisable si et seulement s’il existe λ ∈ R tel que f = λidE .
6.3. DIAGONALISATION 41

Remarque. Cette proposition est souvent utilisée avec un polynôme annulateur n’ayant qu’une racine pour
montrer la non diagonalisabilité.
Exemple. Soit f ∈ L(Mn (R)) telle que ∀M ∈ Mn (R), f (M ) = M + tr(M )N où N ∈ Mn (R) avec N 6= 0
et tr(N ) = 0. Montrer que f n’est pas diagonalisable.
On calcule f ◦ f et on trouve un polynôme annulateur de f n’ayant que 1 comme racine.

Proposition 8

Si M est triangulaire supérieure (ou inférieure), alors ses valeurs propres sont les valeurs sur la
diagonale. En particulier, si elles sont distinctes alors M est diagonalisable.

Théorème 3

Cas des matrices


 2 × 2.
a b
Soit A =  . On pose det A = ad − bc et tr(A) = a + d. En cherchant à déterminer le
c d
spectre de A, on obtient : λ ∈ Sp (A) ⇔ λ2 − tr(A)λ + det A = 0. Il y a ainsi trois cas :
• tr(A)2 − 4 det A < 0, pas de valeurs propres réelles, la matrice n’est pas diagonalisable.
• tr(A)2 − 4 det A = 0, une seule valeur propre réelle, la matrice n’est pas diagonalisable
à moins d’être de la forme λI2 .
• tr(A)2 −4 det A > 0, deux valeurs propres réelles distinctes, la matrice est diagonalisable.

Proposition 9
X
Si A est diagonalisable, alors trA = dim Eλ λ.
λ∈Sp (A)

Démonstration. Si A est diagonalisable, alors A est semblable à une matrice diagonale D où pour λ ∈
Sp (A), λ apparaı̂t dim Eλ fois sur la diagonale de D. Comme deux matrices semblables ont même trace,
on obtient la résultat.

Proposition 10
 
1 ... 1
. .
 
Soit J =  .. . . . .. . On a rg (J) = 1 donc 0 est une valeur propre de J et dim E0 = n − 1.
 
1 ... 1
   
1 n
 ..   .. 
   
De plus J  .  =  .  dont n ∈ Sp (J). Ainsi J est diagonalisable.
   
1 n
42 CHAPITRE 6. RÉDUCTION DES ENDOMORPHISMES
Chapitre 7

Intégrales généralisées

7.1 Intégrales généralisées


Définition 1

Soit f une fonction continue sur [a, b[ avec b ∈ R


Z ou b = +∞. On dit que l’intégrale généralisée
x
(ou impropre) en b converge si la fonction x 7→ f (t)dt admet une limite finie lorsque x tend
Z b Z x a

vers b. On pose alors f (t)dt = lim f (t)dt.


a x→b a
Si la limite est infinie ou n’existe pas, on dit que l’intégrale généralisée diverge.
Lorsqu’on veut déterminer si une intégrale converge ou diverge, on dit que l’on détermine la
nature.

Exemple. Déterminer la nature des intégrales suivantes :


Z +∞
1. e−t dt
0
Z +∞
1
2. dt
1 t
Z +∞
1
3. α
dt en fonction de α
1 t
Z 1
1
4. 2
dt
0 (1 − t)
Remarque. De la même manière, on peut définir des intégrales généralisées de −∞ à b ∈ R. Pour des
intégrales allant de −∞ à +∞, nous verrons cela en détail à la fin de ce chapitre (il y a notamment une
subtilité).

Théorème 1

Soit f une fonction continue sur [a, b[ que l’on peut prolonger par continuité sur [a, b]. Alors
Z b
l’intégrale f (t)dt converge.
a

Z b
Démonstration. On note f˜ le prolongement continu de f , f˜ étant continue sur [a, b], l’intégrale f˜(t)dt
a
existe. Z b
Quitte à prendre f + λ avec λ ∈ R, on peut supposer que lim f (x) > 0 (car f (t)dt converge si et
x→b a

43
44 CHAPITRE 7. INTÉGRALES GÉNÉRALISÉES

Z b
seulement si ∀λ ∈ R, f (t) + λdt converge). Ainsi, il existe ε > 0 tel que ∀x ∈]b − ε, b[, f (x) > 0. On a
a
alors Z x Z b
∀x ∈]b − ε, b[, f (t)dt ≤ f˜(t)dt
a a
Z x
Or sur ]b − ε, b[, x 7→ f (t)dt est croissante et donc d’après le théorème de la limite monotone admet
a
une limite finie en b. D’où la convergence de l’intégrale.
Z 1
Exemple. Nature de l’intégrale t ln(t)dt.
0

7.2 Propriétés et calcul d’intégrales généralisées


Les différentes propriétés des intégrales généralisées sont les mêmes que pour les intégrales sur un
segment, à savoir : linéarité, relation de Chasles, positivité, inégalités.

Proposition 1
Z b Z b
Soit f continue et positive sur [a, b[ et telle que f (t)dt converge. Si f (t)dt = 0, alors
a a
∀t ∈ [a, b[, f (t) = 0.

Comment faire une intégration par partie ou un changement de variable pour une intégrale généralisée ?
1. Justifier la convergence de l’intégrale
2. Poser x ∈]a, b[ et faire tous les calculs sur le segment [a, x] (respectivement [x, b]).
3. Passer à la limite lorsque x tend vers b (respectivement vers a)
On peut se passer de l’étape 1 mais il faut alors justifier que le passage à la limite dans l’étape 3 est licite.
Z 1
Exemple. Convergence et calcul de l’intégrale : t ln tdt.
0
(1 − 1t )n
Z +∞
Calcul (on verra la convergence plus tard) de dt en faisant le changement de variable u = 1t .
1 t2

7.3 Critères de convergence


Attention, les 4 critères de convergence suivants concernent les fonctions continues positives.

Théorème 2
Z b
Soit f une fonction continue et positive sur [a, b[. L’intégrale f (t)dt converge si et seulement
Z x a

si x 7→ f (t)dt est majorée sur [a, b[.


a

Démonstration. C’est une conséquence du théorème de la limite monotone.


7.3. CRITÈRES DE CONVERGENCE 45

Théorème 3

Soit f et g deux fonctions continues sur [a, b[ et positives au voisinage de b. On suppose qu’au
Z b Z b
voisinage de b, f (t) ≤ g(t) et que g(t)dt converge, alors f (t)dt converge.
a a

Z b
Démonstration. On applique au voisinage de b le théorème précédent avec g(t)dt comme majorant.
b−ε

Théorème 4

Soit f et g deux fonctions continues sur [a, b[ et positives au voisinage de b. On suppose que,
Z b Z b
f (t) ∼ g(t) alors f (t)dt et g(t)dt sont de même nature.
b a a

Démonstration. On a au voisinage de b l’existence d’un ε > 0 tel que f (t) ≤ (1 + ε)g(t). On peut alors
appliquer le théorème précédent.

Théorème 5

Soit f et g deux fonctions continues sur [a, b[ et g positive au voisinage de b (f est de signe
Z b Z b
quelconque). On suppose que, f (t) = o(g(t)) et que g(t)dt converge alors f (t)dt converge.
b a a

Z +∞
1
Exemple. Montrer la convergence de l’intégrale suivante : dt.
1 t2
En déduire la convergence des intégrales suivantes :

+∞
e−t +∞
t2 +∞
Z Z Z
2
1. dt 2. dt 3. e−t dt
1 t2 1 (1 + t2 )2 0

Définition 2
Z b
Soit f une fonction continue sur [a, b[. On dit que l’intégrale généralisée f (t)dt converge
Z b a

absolument si l’intégrale généralisée |f (t)|dt converge.


a

Théorème 6
Z b
Si l’intégrale généralisée f (t)dt converge absolument, alors elle converge.
a
46 CHAPITRE 7. INTÉGRALES GÉNÉRALISÉES

Z b
Démonstration. C’est la même preuve que pour les séries. On suppose que |f (t)|dt converge et on
Z b a

remarque que ∀t ∈]a, b[, f (t) = f (t) − |f (t)| + |f (t)|, or |f (t)|dt converge et f (t) − |f (t)| ≤ 0 et
Z b a Z b
|f (t)| − f (t) ≤ 2|f (t)|, d’où la convergence de f (t) − |f (t)|dt et donc de f (t)dt.
a a
Z +∞
sin t
Exemple. Déterminer la nature de l’intégrale dt.
1 t2

7.4 Intégrales de référence


Théorème 7

Intégrales
Z +∞de Riemann :
1
— α
dt est convergente si et seulement si α > 1.
1
Z 1 t
1
— α
dt est convergente si et seulement si α < 1.
0 t
Z b
1
On a même la généralisation suivante : dt est convergente si et seulement si α < 1,
a (b − t)α
Z b
1
de même pour dt.
a (t − a)α

Remarque. On utilise souvent les théorèmes de comparaison (6.3.3, 6.3.4) avec les intégrales de Riemann.
En particulier avec α = 2 en +∞ et α = 1/2 en 0
Z +∞
e−αt dt converge si et seulement si α > 0.
0

7.5 Compléments
Z b
Si f est continue sur ]a, b[ alors on dit que l’intégrale f (t)dt converge si pour tout c ∈]a, b[, les deux
Z c Z b a

intégrales généralisées f (t)dt et f (t)dt convergent.


Z +∞ a c Z 0 Z +∞
En particulier f (t)dt converge si et seulement si f (t)dt et f (t)dt convergent.
−∞ −∞ 0

Proposition 2
Z +∞ Z +∞
Si f est paire, alors f (t)dt converge si et seulement si f (t)dt converge si et seulement
Z 0 −∞ Z +∞ Z +∞ 0

si f (t)dt converge. Et dans ce cas f (t)dt = 2 f (t)dt.


−∞ Z +∞ −∞ 0 Z +∞
Si f est impaire, alors f (t)dt converge si et seulement si f (t)dt converge si et
Z 0 −∞ Z +∞ 0

seulement si f (t)dt converge. Et dans ce cas f (t)dt = 0.


−∞ −∞
7.5. COMPLÉMENTS 47

+∞ +∞ x
4
Z Z Z
Remarque. ! Si f (t)dt converge alors f (t)dt = lim f (t)dt. Mais la réciproque est
−∞ −∞ x→+∞ −x
Z x
fausse ! ! (penser à tdt).
−x
48 CHAPITRE 7. INTÉGRALES GÉNÉRALISÉES
Chapitre 8

Variables à densité

8.1 Généralités
Définition 1

Soit (Ω, A, P) un espace probabilisé et X une variable aléatoire réelle. On dit que X est une
variable à densité si sa fonction de répartition FX est continue sur R et de classe C 1 sur R, sauf
éventuellement en un nombre fini de points.
Toute fonction fX : R → R à valeurs positives telle que fX (t) = FX0 (t) pour tout réel t sauf
éventuellement en un nombre fini de points est appelée densité de X.


0 si t < 0

Exemple. Soit X une variable aléatoire telle que FX (t) = t si 0 ≤ t ≤ 1 .

1 si 1 < t

Vérifier que X est une variable à densité et déterminer une densité de X.

Proposition 1

Soit X une variable à densité de fonction de répartition FX et de densité fX :


Z t
1. ∀t ∈ R, FX (t) = P(X ≤ t) = fX (s)ds
−∞
Z +∞
2. fX (s)ds = 1
−∞
Z +∞
3. P(X > t) = fX (s)ds
t
4. ∀t ∈ R, P(X = t) = 0
5. Pour tout (x, y) ∈ R2 tel que x ≤ y,
Z y
P(x ≤ X ≤ y) = P(x < X ≤ y) = P(x < X < y) = P(x ≤ X < y) = FX (y)−FX (x) = fX (t)dt
x

Z y
Démonstration. Il suffit de remarquer que pour tout x, y ∈ R, f (t)dt = F (y) − F (x). Or on connaı̂t
x
la limite de F en +∞ qui est 1, et en −∞ qui est 0. De plus, si P(X = x) 6= 0, alors F n’est pas continue
en x, ce qui contredit le fait que X est une variable à dentsité. D’où les différents résultats.

49
50 CHAPITRE 8. VARIABLES À DENSITÉ

Proposition 2

Toute fonction f : R → R vérifiant les propriétés suivantes :


1. f est positive sur R
2. f est continue sur R sauf éventuellement en un nombre fini de points
Z +∞
3. L’intégrale converge et vaut 1
−∞
est la densité d’une variable aléatoire.

Z x
Démonstration. Il suffit de remarquer que x 7→ f (t)dt vérifie toutes les conditions pour être une
−∞
fonction de répartition d’une variable aléatoire.


0 si x ≤ 0


Exemple. Soit λ ∈ R et f définie par f (x) = √λx si x ∈]0, 1[ Déterminer λ pour que f soit une densité
 λ
 √ si x ≥ 1

x x
d’une variable aléatoire X puis représenter f . Ensuite, déterminer la fonction de répartition FX de X puis
représenter la courber de FX .

Proposition 3

Soit F : R → R vérifiant les conditions suivantes


1. F est croissante sur R
2. lim F (x) = 0 et lim F (x) = 1
x→−∞ x→+∞
3. F est continue sur R
4. F est de classe C 1 sauf en un nombre fini de points.
Alors F est la fonction de répartition d’une variable à densité.

4
Remarque. ! Si on sait déjà que F est une fonction de répartition, il suffit de montrer que F est
continue sur R et de classe C 1 sur R sauf éventuellement en un nombre fini de points.

8.2 Transformations
Proposition 4

Soit f une bijection croissante et g une bijection décroissante. Soit X une variable aléatoire et
t ∈ R. On les égalités d’événements suivants :

{X ≤ t} = {f (X) ≤ f (t)} = {g(X) ≥ g(t)}


8.2. TRANSFORMATIONS 51

Proposition 5

Soit X une variable aléatoire à densité, de densité fX et de fonction de répartition FX que l’on
supposera C 1 sur R.
Alors pour tous réels a, b avec a 6= 0, la variable Y = aX + b est une variable à densité et on
peut obtenir sa densité et sa fonction de répartition

Démonstration. cas où a > 0 : FY (t) = P(aX + b ≤ t) = P(X ≤ t−b t−b



a ) = FX a .
Par composition de fonctions continues et C 1 , on en déduit que Y est une variable à densité et on obtient
1 t−b

par dérivation fY (t) = a fX a
cas où a < 0 : FY (t) = 1 − FX t−b 1 t−b
 
a et fY (t) = − a fX a .

Exemple. Autres cas particuliers : Y = eX , Y = ln |X|, ...


Pour Y = eX , on a ∀t > 0, FY (t) = P(eX ≤ t) = P(X ≤ ln t) = FX (ln t). De même que précédemment,
FY est continue et C 1 et fY (t) = fX (ln
t
t)
.

Méthode

Comment étudier une transformation d’une variable aléatoire Y = f (X) :


1. Première chose à faire, étudier le support, c’est-à-dire déterminer Y (Ω). Si ce n’est pas
immédiat, il suffit détudier la fonction f avec pour ensemble de départ X(Ω). Un tableau
de variation donne l’ensemble d’arrivée, donc Y (Ω).
2. On sait désormais que pour les t à gauche du support de Y , on a FY (t) = 0 et pour les t
à droite FY (t) = 1.
3. On prend t ∈ Y (Ω) et on se ramène à la fonction de répartition de X ou l’anti-fonction
de répartition. On fait très attention à la manipulation des événements. Si l’on compose
des deux côtés de l’inégalité par une bijection croissante (ou décroissante) on le signifie.

Exemple. Soit X une variable aléatoire à densité telle que X(Ω) = R et de fonction de répartition de
classe C 1 sur R. On pose Y = ln(1 + |X|).
1. On remarque que Y (Ω) = R+
2. On en déduit que ∀t < 0, FY (t) = 0.
3. Soit t ∈ R+ .

FY (t) = P(Y ≤ t) = P(ln(1 + |X|) ≤ t)


= P(1 + |X| ≤ et ) car l’exponentielle est une bijection croissante
= P(|X| ≤ e − 1) = P(1 − et ≤ X ≤ et − 1)
t
car t ≥ 0
t t
= FX (e − 1) − FX (1 − e )

Par composition de fonctions continues et de classe C 1 , on en déduit que Y est une variable aléatoire
à densité et par dérivation on obtient
(
0 si t < 0
fy (t) =
et (fX (et − 1) + fX (1 − et )) sinon
52 CHAPITRE 8. VARIABLES À DENSITÉ

8.3 Moments
Définition 2

Soit
Z +∞X une variable à densité, de densité fX . On dit que X admet une espérance
Z +∞ si l’intégrale
tfX (t)dt converge absolument et dans ce cas on note E(X) = tfX (t)dt son
−∞ −∞
espérance.

Proposition 6

Soit X une variable aléatoire à densité admettant une espérance. Alors pour tous réels a,b (avec
a 6= 0), la variable aX + b admet une espérance et E(aX + b) = aE(X) + b.

Définition 3

Z +∞n ∈ N , on dit que la variable a densité X admet
Soit un moment d’ordre n si l’intégrale
Z +∞
n n
t fX (t)dt converge absolument et on a E(X ) = tn fX (t)dt
−∞ −∞

Proposition 7

Soit X une variable aléatoire à densité admettant un moment d’ordre n ∈ N∗ . Alors pour tout
k ∈ J1, nK, X admet un moment d’ordre k.

Définition 4

Soit X une variable à densité, de densité fX . Si X admet un moment d’ordre 2 alors X admet
une variance qui vaut V(X) = E(X 2 ) − E(X)2

8.4 Lois usuelles


Définition 5

Soit X une variable aléatoire sur (Ω, A, P). On dit que X(suit la loi uniforme sur [a, b] et on
1
si t ∈ [a, b]
note X ∼ U([a, b]), si X est une variable à densité f (t) = b−a .
0 sinon.

0 si t < a

t−a
La fonction de répartition est donc FX (t) = b−a si a ≤ t ≤ b

1 si t > b

8.4. LOIS USUELLES 53

Proposition 8

a+b
Si X ∼ U([a, b]), alors X admet une espérance et E(X) = 2 et X admet une variance
(b−a)2
V(X) = 12 .

Définition 6

Soit X une variable aléatoire sur (Ω, A, P) et λ > 0. On dit que X suit la(loi exponentielle de
λe−λt si t ≥ 0
paramètre λ et on note X ∼ E(λ), si X est une variable à densité f (t) = .
0 sinon.
(
0 si t < 0
La fonction de répartition est donc FX (t) =
1 − e−λt si t ≥ 0

Proposition 9

1 1
Si X ∼ E(λ), alors X admet une espérance et E(X) = λ et X admet une variance V(X) = λ2
.

Théorème 1

Soit X une variable à densité à valeurs positives telle que ∀t > 0, P(X > t) > 0. On dit que la
loi de X est une loi sans mémoire si ∀(x, y) ∈ R2+ , PX>y (X > y + x) = P(X > x).
La loi de X est une loi sans mémoire si et seulement si X suit une loi exponentielle.

Démonstration. On remarque dans un premier temps que PX>y (X > y + x) = P(X>x+y) P(X>y . Ainsi la
réciproque est immédiate. Pour le sens direct, on pose g définie sur R+ telle que pour tout t ∈ R+ ,
g(t) = P(X > t). Pour tout x, y ∈ R+ , on a g(xy) = g(x)g(y) et on peut montrer (exercice classique !),
que g est de la forme t 7→ exp(−αt), avec α > 0 car lim g(t) = 0. On retrouve bien l’antifonction de
t→+∞
répartition d’une variable aléatoire suivant une loi exponentielle.

Définition 7

Soit X une variable aléatoire sur (Ω, A, P). On dit que X suit la loi normale de paramètre
(t−µ)2
(µ, σ 2 ) et on note X ∼ N (µ, σ 2 ), si X est une variable à densité φ(t) = √1 e− 2σ 2 .
Z t σ 2π

La fonction de répartition est donc Φ(t) = φ(s)ds.


−∞

Proposition 10

Si X ∼ N (µ, σ 2 ), alors X admet une espérance et E(X) = µ et X admet une variance V(X) =
σ2.

Remarque. On manipulera souvent la loi normale centrée réduite : X ∼ N (0, 1).


54 CHAPITRE 8. VARIABLES À DENSITÉ

Z +∞ t2 √
Remarque. On a admis que e− 2 dt = 2π
−∞

Théorème 2

Soit X ∼ N (0, 1), µ ∈ R et σ ∈ R+ . On pose Y = σX + µ. Ainsi Y ∼ N (µ, σ 2 ).

Démonstration. Laissée au lecteur

Remarque. Ce théorème nous indique que l’on peut se contenter de bien connaı̂tre la loi normale centrée
réduite.

Proposition 11
Z +∞ √
2 π
On a e−t =
0 2

Démonstration. Inutile de chercher à calculer cette intégrale avec les techniques usuelles. Il existe un
2
théorème très fort, du en partie à Liouville, qui précise que la fonction t 7→ e−t n’admet pas de primitive
exprimable avec les fonctions usuelles. On utilisera donc nos connaissances (et un résultat admis !) sur la
loi normale pour calculer cette intégrale. Z +∞
2 √
Soit X ∼ N (0, 1/2), en intégrant sa densité de −∞ à +∞, on obtient e−t dt = π. En remarquant
Z +∞ √ −∞
−t2 −t2 π
que t 7→ e est paire, on obtient e =
0 2
Chapitre 9

Couples de variables aléatoires

9.1 Séries doubles


Définition 1

On note (ui,j )i,j∈N une application de N2 dans R. Cette application correspond à une suite avec
deux indices, on pourra l’appeler suite double.

Théorème 1

Théorème de Fubini
Soit (ui,j )i,j∈N une suite double positive. On suppose que
 X

 ∀i ∈ N, ui,j converge

 j∈N 


X +∞
X
ui,j  converge

 



i∈N j=0

On a alors  X


∀j ∈ N, ui,j converge


 i∈N !


 +∞
X X
ui,j converge

 j∈N i=0


X+∞ X+∞ +∞ X
X +∞
ui,j = ui,j





i=0 j=0 j=0 i=0

Remarque. Ce théorème signifie que l’on peut échanger deux limites, ce qui n’est pas possible en règle
générale.

1 si i = j

Exemple. Un contre exemple : on pose pour tout i, j ∈ N, ai,j = −1 si j = i + 1 .

0 sinon

9.2 Lois conjointes, lois marginales


Dans tout ce qui suit, on considère un espace probabilisé (Ω, P(Ω), P). Toutes les variables aléatoires
présentes sont définies sur cet espace probabilisé.

55
56 CHAPITRE 9. COUPLES DE VARIABLES ALÉATOIRES

Définition 2

Soit X et Y deux variables aléatoires discrètes. On appelle l’application ω 7→ (X(ω), Y (ω)) le


couple de variables aléatoires discrètes (X, Y ).

Remarque. On fera attention au support de (X, Y ). Il est inclus dans X(Ω)×Y (Ω) mais n’est pas forcément
égal. Par exemple, si X ∼ B(p), on pose Y = 1 − X. Ainsi X(Ω) × Y (Ω) = {0, 1}2 mais (X, Y )(Ω) =
{(0, 1), (1, 0)}.

Proposition 1

Soit (X, Y ) un couple de variables aléatoires discrètes. Alors la famille d’événements


((X = x) ∩ (Y = y))(x,y)∈(X,Y )(Ω) est un système complet d’événements.

Remarque. Il en est de même pour ((X = x) ∩ (Y = y))(x,y)∈(X(Ω)×Y (Ω) , (X, Y )(Ω) n’étant pas toujours
facile à déterminer.
Définition 3

Soit (X, Y ) un couple de variables aléatoires discrètes. On appelle loi conjointe de X et Y


l’ensemble ((x, y), P(X = x ∩ Y = y))(x,y)∈(X,Y )(Ω) .
Les lois de X et de Y sont appelées lois marginales du couple.

Remarque. Comme d’habitude, (X, Y )(Ω) n’étant pas forcément facile à déterminer, on peut considérer
((x, y), P(X = x ∩ Y = y))(x,y)∈X(Ω×Y (Ω)

Théorème 2

Soit (X, Y ) un couple de variables aléatoires discrètes. On peut déterminer les lois marginales
à partir de la loi conjointe :
X
∀x ∈ X(Ω), P(X = x) = P(X = x ∩ Y = y)
y∈Y (Ω)

et de même X
∀y ∈ Y (Ω), P(Y = y) = P(X = x ∩ Y = y)
x∈X(Ω)

4
Remarque. ! On ne peut pas déduire la loi conjointe à partir des lois marginales ! Sauf dans le cas très
particulier où X et Y sont indépendantes car P(X = x ∩ Y = y) = P(X = x) × P(Y = y).
Astuce. Parfois, on arrive directement à factoriser la loi conjointe : P(X = x ∩ Y = y) = f (x)g(y) où
(x, f (x))x∈X(Ω) et (y, g(y))y∈Y (Ω) sont des lois de probabilité. On obtient ainsi les lois marginales et même
l’indépendance de X et de Y .
Définition 4

Soit (X, Y ) un couple de variables aléatoires discrètes. Pour tout y ∈ Y (Ω) tel que P(Y = y) 6= 0,
on désigne par loi conditionnelle de X sachant Y = y par la loi (x, PY =y (X = x))x∈X(Ω) .
9.3. SOMME DE VARIABLES ALÉATOIRES 57

Proposition 2

Si on connaı̂t une loi marginale et la probabilité conditionnelle de l’autre variable par rapport
à la première, alors on peut retrouver la loi conjointe. Plus précisément, pour tout x, y ∈
(X, Y )(Ω), si P(Y = y) 6= 0, P(X = x ∩ Y = y) = PY =y (X = x)P(Y = y). Et on retrouve ainsi
la loi marginale de X.

Remarque. Si X et Y sont indépendantes, alors la loi de X sachant Y = y est la loi de X. De même pour
la loi de Y sachant X = x.

9.3 Somme de variables aléatoires


Théorème 3

Soit (X, Y ) un couple de variables aléatoires discrètes à valeurs dans N. On a alors


n
X
∀n ∈ N, P(X + Y = n) = P(X = k ∩ Y = n − k)
k=0

Cas particulier à connaı̂tre : si de plus X et Y sont indépendantes, alors


n
X
∀n ∈ N, P(X + Y = n) = P(X = k)P(Y = n − k)
k=0

Théorème 4

Soit p ∈]0, 1[, n, m ∈ N∗ . Soit X, Y deux variables aléatoires indépendantes telles que X ∼
B(n, p) et Y ∼ B(m, p). On a alors X + Y ∼ B(n + m, p).
Plus généralement, si X1 , . . . , Xn sont mutuellement indépendantes et pour tout k ∈
n
X Xn
J1, nK, Xk ∼ B(mk , p) alors Xk ∼ B( mk , p).
k=1 k=1

Remarque. En particulier, B(1, p) est en fait une loi de Bernoulli de paramètre p. Ainsi la somme de n
variables aléatoires mutuellement indépendantes suivant une loi de Bernoulli de paramètre p suit une loi
binomiale de paramètre (n, p).

Théorème 5

Soit λ, µ ∈ R∗+ . Soit X, Y deux variables aléatoires indépendantes telles que X ∼ P(λ) et
Y ∼ P(µ). On a alors X + Y ∼ P(λ + µ).
Plus généralement, si X1 , . . . , Xn sont mutuellement indépendantes et pour tout k ∈
n
X Xn
J1, nK, Xk ∼ P(λk ) alors Xk ∼ P( λk ).
k=1 k=1

Remarque. On dit que la loi binomiale et la loi de Poisson sont des lois stables.
58 CHAPITRE 9. COUPLES DE VARIABLES ALÉATOIRES

9.4 Covariance
Proposition 3

Si X et Y , deux variables aléatoires discrètes, admettent un moment d’ordre deux alors leur
produit XY admet une espérance. De plus, X + Y admet aussi un moment d’ordre deux.

Proposition 4

Soit X et Y deux variables aléatoires discrètes admettant un moment d’ordre deux. On a :


X
E(XY ) = xyP(X = x ∩ Y = y)
(x,y)∈X(Ω)×Y (Ω)

Théorème 6

Si X et Y admettent une espérance et sont indépendantes, alors XY admet une espérance et


E(XY ) = E(X)E(Y ).
Si X1 , . . .!
Xn sont mutuellement indépendantes et admettent chacune une espérance alors
n
Y Yn
E Xi = E(Xi ).
i=1 i=1

Définition 5

Soit X et Y deux variables aléatoires discrètes admettant une espérance. Si (X − E(X))(Y −


E(Y )) admet une espérance, on appelle covariance de (X, Y ) (ou de X et Y ) cette espérance :

Cov(X, Y ) = E((X − E(X))(Y − E(Y )))

Théorème 7

Soit X, Y deux variables aléatoires discrètes. Si X, Y et XY admettent une espérance alors


(X, Y ) admet une covariance et

Cov(X, Y ) = E(XY ) − E(X)E(Y )

Corollaire 1

Si X et Y sont deux variables aléatoires discrètes, indépendantes et admettant une espérance,


alors (X, Y ) admet une covariance et Cov(X, Y ) = 0

Remarque. 4
! La réciproque est fausse !
9.4. COVARIANCE 59

Proposition 5

Soit X, Y, Z des variables aléatoires discrètes admettant des moments d’ordre 2 et λ ∈ R :


— Cov(X, X) = V(X)
— Cov(X, Y ) = Cov(Y, X)
— Cov(X + Y, Z) = Cov(X, Z) + Cov(Y, Z)
— Cov(X, Y + Z) = Cov(X, Y ) + Cov(X, Z)
— Cov(λX, Y ) = Cov(X, λY ) = λCov(X, Y )

Théorème 8

Soit X et Y deux variables aléatoires discrètes admettant un moment d’ordre 2. On a

V(X + Y ) = V(X) + V(Y ) + 2Cov(X, Y )

Plus généralement, si X1 , . . . , Xn sont des variables aléatoires discrètes admettant un moment


d’ordre 2, on a :
n n
!
X X X
V Xi = V(Xi ) + 2 Cov(Xi , Xj )
i=1 i=1 1≤i<j≤n

Proposition 6

Si on connaı̂t la variance de X, Y et de X + Y alors on peut retrouver la covariance de X, Y :

V(X + Y ) − V(X) − V(Y )


Cov(X, Y ) =
2

Définition 6

Soit X, Y deux variables aléatoires discrètes non certaines admettant un moment d’ordre 2, le
réel
Cov(X, Y )
ρ(X, Y ) = p
V(X)V(Y )
est appelé coefficient de corrélation linéaire de X et Y .

Remarque. On rappelle la propriété : V(X) = 0 si et seulement si X suit une loi certaine.

Théorème 9

Pour tout couple (X, Y ) admettant un coefficient de corrélation linéaire on a

−1 ≤ ρ(X, Y ) ≤ 1

On a égalité si et seulement si il existe a, b ∈ R tels que Y = aX + b presque-sûrement avec


ρ(X, Y ) = −1 pour a < 0 et ρ(X, Y ) = 1 si a > 0.

Démonstration. à venir
60 CHAPITRE 9. COUPLES DE VARIABLES ALÉATOIRES

Remarque. Interprétation : si ρ(X, Y ) alors on dit que X et Y sont corrélées de manière positive : X et
Y ont les mêmes tendances, par exemple si X correspond à votre notre en mathématiques au CB2 de KH
et Y votre note en mathématiques à l’écrit de l’ENS, la corrélation est a priori positive. Au contraire si
on prend X votre note en mathématiques à l’écrit de l’ENS et Y votre rang à l’ENSAE, la corrélation est
négative (les tendances sont contraires : si X est grand alors Y est petit et inversement).

Proposition 7

Si X et Y sont deux variables aléatoires non certaines admettant un moment d’ordre 2 alors
pour tout a, b, c, d ∈ R avec a > 0 et c > 0, on a

ρ(aX + b, cY + d) = ρ(X, Y )
Chapitre 10

Algèbre bilinéaire

10.1 Produit scalaire


Définition 1

Soit x = (x1 , . . . xn ) et y = (y1 , ldots, yn ) deux éléments de Rn . On appelle produit scalaire de


Xn
x et y, noté hx, yi, le réel xi yi .
i=1

Théorème 1

Le produit scalaire est une application de Rn × Rn dans R, on dit que c’est une forme :
— bilinéaire : ∀x, y, z ∈ Rn , ∀λ ∈ R, hλx + y, zi = λhx, zi + hy, zi et hx, λy + zi = λhx, yi +
hx, zi. Autrement dit : pour tout y ∈ Rn fixé, x 7→ hx, yi est une forme linéaire et de
même pour x 7→ hy, xi.
— symétrique : ∀x, y ∈ Rn , hx, yi = hy, xi
— définie : ∀x ∈ Rn , hx, xi = 0 =⇒ x = 0
— positive : ∀x ∈ Rn , hx, xi ≥ 0

Proposition 1

Expression matricielle    
x1 y
 1
. .
 
Soit x = (x1 , . . . xn ) ∈ Rn et y = (y1 , . . . , yn ) ∈ Rn . On pose X =  ..  et Y =  .. . On a
  
   
xn yn
t
hx, yi = XY .
De plus, soit u ∈ L(Rn ) et A canoniquement associé à u. On a hu(x), yi = t (AX)Y = t X t AY .

Définition 2
p
Soit x ∈ Rn , on appelle norme de x, le réel positif kxk = hx, xi

61
62 CHAPITRE 10. ALGÈBRE BILINÉAIRE

Théorème 2

Inégalité de Cauchy-Schwarz
Soit x, y ∈ Rn , on a |hx, yi| ≤ kxkkyk

Démonstration. à venir

Théorème 3

Cas d’égalité de l’inégalité de Cauchy-Schwarz


Pour tout x, y ∈ Rn , |hx, y| = kxkkyk si et seulement si (x, y) est une famille liée.

Démonstration. à venir

Proposition 2

Propriétés de la norme
— Pour tout x ∈ Rn , on a kxk ≥ 0 et kxk = 0 ⇔ x = 0.
— Pour tout x ∈ Rn , pour tout λ ∈ R, kλxk = |λ|kxk
— Inégalité triangulaire : pour tous vecteurs x, y ∈ Rn , on a kx + yk ≤ kxk + kyk

Proposition 3

Identité de polarisation.

kx + yk2 − kxk2 − kyk2


∀x, y ∈ Rn , hx, yi =
2

Remarque. Cette formule est pratique lorsque l’on a des informations sur les normes et que l’on veut les
traduire en produit scalaire.

Définition 3

On appelle distance entre x et y ∈ Rn le réel positif d(x, y) = kx − yk.

Proposition 4

Propriétés de la distance
On a pour tout x, y ∈ Rn :
— d(x, y) = 0 ⇔ x = y
— d(x, y) = d(y, x)
— ∀z ∈ Rn , d(x, y) ≤ d(x, z) + d(z, y)
10.2. ORTHOGONALITÉ 63

Définition 4

Soit a ∈ Rn et r ∈ R∗+ .
— On appelle sphère de centre a et de rayon r l’ensemble S(a, r) = {x ∈ Rn , kx − ak = rk}.
— On appelle boule ouverte de centre a et de rayon r l’ensemble B(a, r) = {x ∈ Rn , kx −
ak < r}.
— On appelle boule fermée de centre a et de rayon r l’ensemble Bf (a, r) = {x ∈ Rn , kx −
ak ≤ r} = S(a, r) ∪ B(a, r).

10.2 Orthogonalité
Définition 5

On dit que x ∈ Rn et y ∈ Rn sont orthogonaux si hx, yi = 0. On note alors x ⊥ y.

Exemple. On a les propriétés suivantes :


∀x, y ∈ Rn , kxk = kyk ⇔ x − y ⊥ x + y
x⊥x⇔x=0
Définition 6

Soit A ⊂ Rn , on définit l’orthogonale de A par A⊥ = {x ∈ Rn , ∀a ∈ A, x ⊥ a}.

Exemple. En particulier (Rn )⊥ = {0} et {0}⊥ = Rn .

Proposition 5

Pour tout A ⊂ Rn , A⊥ est un sous-espace vectoriel de Rn .

Théorème 4

Soit F un sous-espace vectoriel de Rn . On a F ⊕ F ⊥ = Rn

Démonstration. Soit p = dim F et (e1 , . . . , ep ) une base de F .


On considère f : Rn → Rp définie par ∀x ∈ Rn , f (x) = (hx, e1 i, hx, e2 i, . . . , hx, ep i). Par bilinéarité du
produit scalaire, f est une application linéaire.
p
X
Si x ∈ Ker f alors soit y ∈ F , y peut s’écrire dans la base (e1 , . . . , ep ) : y = ai ei et ainsi, par bilinéarité
i=1
p
X
du produit scalaire hx, yi = ai hx, ei i = 0 car x ∈ Ker f . Donc x ∈ F ⊥
i=1
Réciproquement, si x ∈ F⊥ alors x est orthogonal à e1 , e2 , . . . , ep et donc f (x) = 0, x ∈ Ker f .
Ainsi, par double inclusion, F ⊥ = Ker f . Or d’après le théorème du rang dim Ker f + dim Im f = n et
comme Im f ⊂ Rp , dim Im p ≤ p et dim F ⊥ = dim Kerf ≥ n − p.
Comme F ∩ F ⊥ = {0}, on obtient n ≥ dim F + F ⊥ = dim F + dim F ⊥ ≥ p + n − p = n.
En conclusion, F ∩ F ⊥ = {0} et dim F + dim F ⊥ = n donc F ⊕ F ⊥ = Rn .
64 CHAPITRE 10. ALGÈBRE BILINÉAIRE

Corollaire 1

Soit F un sous-espace vectoriel de Rn . On a F = (F ⊥ )⊥

Définition 7

Soit F et G deux sous-espaces vectoriels de Rn . On dit que F et G sont orthogonaux, et on


note F ⊥ G si ∀x ∈ F, ∀y ∈ G, x ⊥ y.

Définition 8

On dit qu’une famille de vecteurs de Rn (x1 , . . . , xp ) est orthogonale si ∀i, j ∈ J1, pK, i 6= j =⇒
xi ⊥ xj .

Proposition 6

Une famille orthogonale de vecteurs tous non nuls est libre

Démonstration. à venir

Définition 9
n
( dit qu’une famille de vecteurs de R (x1 , . . . xp ) est orthonormale si ∀i, j ∈ J1, pK, hxi , xj i =
On
0 si i 6= j
.
1 si i = j
Si p = n on parle alors de base orthonormale ou base orthonormée (parfois abrégé en b.o.n.)

Remarque. Si (x1 , . . . , xp ) est une famille orthogonale de vecteurs tous non nuls, alors en posant, pour
tout i ∈ J1, pK yi = kxxii k , on a (y1 , . . . , yp ) est une famille orthonormale.

Proposition 7

Soit (e1 , . . . , ep ) une famille orthogonale d’éléments tous non nuls. Il existe (ep+1 , . . . , en ) tel
que (e1 , . . . en ) est une base orthogonale de Rn .

Corollaire 2

Tout sous-espace vectoriel de Rn possède une base orthonormale.


10.3. PROJECTION ORTHOGONALE 65

Théorème 5

Théorème de Pythagore.
Soit (x1 , . . . xp ) une famille orthogonale. On a

p 2 p
X X
xi = kxi k2
i=1 i=1

Théorème 6

Soit (e1 , . . . en ) une base orthonormale de Rn . On a pour tout x ∈ Rn


n
X
x= hx, ei iei
i=1

et
n
X
2
kxk = hx, ei i2
i=1

10.3 Projection orthogonale

Définition 10

Soit p un projecteur. On dit que c’est un projecteur orthogonal si Ker f = (Im f )⊥ (ou de
manière équivalente Im f = (Ker f )⊥ ).
Si F est un sous-espace vectoriel de Rn , alors pF est la projection orthogonale sur F si c’est la
projection sur F parallèlement à F ⊥ .

Proposition 8

p ◦ p = p

p projection orthogonale sur F ⇔ Im p = F

Ker p ⊥ Im p

Démonstration. En effet, si Ker p ⊥ Im p alors Ker p ⊂ (Im p)⊥ or dim (Im p)⊥ = n−dim Im p = dim Ker p,
la première égalité venant du fait que Im p et (Im p)⊥ sont supplémentaires, la deuxième du théorème du
rang. Ainsi, Ker p = (Im p)⊥ .
66 CHAPITRE 10. ALGÈBRE BILINÉAIRE

Proposition 9

Soit pF la projection orthogonale sur F sous-espace vectoriel de Rn et (e1 , . . . ep ) une base


orthonormée de F .
Pour tout x ∈ Rn , on a
p
X
pF (x) = hx, ei iei
i=1

Théorème 7

Soit F un sous-espace vectoriel de Rn et x ∈ Rn . On appelle distance de x à F le réel suivant :


d(x, F ) = inf kx − yk.
y∈F
Soit pF la projection orthogonale sur F . On a alors

d(x, F ) = kx − pF (x)k

Autrement dit, le projeté de x sur F minimise la distance entre x et F , c’est-à-dire, pour tout
y ∈ F , kx − pF (x)k ≤ kx − yk.

Démonstration. Soit x ∈ Rn , y ∈ F .

kx − yk2 = kx − pF (x) + pF (x) − yk2


= kx − pF (x)k2 + kpF (x) − yk2 ≥ kx − pF (x)k2

Le passage à la deuxième ligne est possible car pF (x) − y ∈ F et x − pF (x) ∈ Ker pF = F ⊥ donc on peut
appliquer le théorème de Pythagore.
Chapitre 11

Fonctions de deux variables

11.1 Définitions

Définition 1

On appelle fonction de deux variables réelles une application de R2 dans R, on note f : (x, y) 7→
f (x, y).
On appelle graphe de f l’ensemble G(f ) = {(x, y, f (x, y)), (x, y) ∈ R2 }.
Pour tout réel k, on appelle ligne de niveau k l’ensemble Lk = {(x, y) ∈ R2 , f (x, y) = k}.

Remarque. Le graphe de f correspond à une surface de R3 . Une ligne de niveau k correspond au projeté
orthogonal sur le plan R2 de l’intersection du graphe avec le plan z = k.

Exemple. — On considère les fonctions coordonnées f1 : (x, y) 7→ x et f2 : (x, y) 7→ y. Le graphe de


f1 (respectivement f2 ) est le plan d’équation x = z (respectivement y = z). Les lignes de niveau k
sont les droites affines d’équation x = k (respectivement y = k).
— Soit a, b ∈ R, (a, b) 6= (0, 0). On considère f : (x, y) 7→ ax+by. Le graphe de f est le plan d’équation
z = ax + by. Les lignes de niveau k sont les droites affines d’équations ax + by = k (elles sont toutes
parallèles).
— Soit g : (x, y) 7→ sin x sin y. Voici à quoi ressemble le graphe de g

— Soit h : (x, y) 7→ x2 + y 2 . Le graphe de h est appelé paraboloı̈de de révolution. Voici à quoi il


ressemble :

67
68 CHAPITRE 11. FONCTIONS DE DEUX VARIABLES


Les lignes de niveau k > 0 sont des cercles de centre (0, 0) et de rayon k.
L’intersection du graphe de h avec le plan d’équation y = 0 est une parabole (d’où le nom de
paraboloı̈de).

11.2 Un peu de topologie


Définition 2

Soit U ⊂ R2 , on dit que U est une partie ouverte de R2 (ou un ouvert de R2 ) si

∀a ∈ U, ∃ε > 0, B(a, ε) ⊂ U

Autrement dit : les points au bord de U n’appartiennent pas à U .

Exemple. — L’ensemble vide et R2 sont des ouverts.


— Les demi-espaces ouverts {(x, y) ∈ R2 , ax + by > 0} et {(x, y) ∈ R2 , ax + by < 0} sont des ouverts.
— Une droite n’est pas un ouvert.

Définition 3

Soit (xn )n∈N une suite d’éléments de R2 . On dit que (xn )n∈N converge vers a ∈ R2 si

lim kxn − ak = lim d(xn , a) = 0


n→+∞ n→+∞

Remarque. Tout ce qui concerne les limites (et donc en particulier la continuité) dans R2 est similaire à
ce qui se passe dans R sauf qu’à la place des valeurs absolues, il y a désormais des normes.

Définition 4

Soit f : R2 → R et a ∈ R2 . On dit que f est continue en a si

∀ε > 0, ∃r > 0, kx − ak ≤ r =⇒ |f (x) − f (a)| ≤ ε

On dit qu’une fonction est continue si elle continue en tout point de son ensemble de définition.
11.3. DÉRIVÉES PARTIELLES 69

Exemple. Les fonctions coordonnées


p f1 et f2 sont continues. En effet, soit (a, b) ∈ R2 , ε > 0, on peut
prendre r = ε car |x − a| ≤ (x − a)2 + (y − b)2 = k(x, y) − (a, b)k ≤ ε =⇒ |f1 (x, y) − f1 (a, b)| =
|x − a| ≤ ε. De même pour f2 .

Proposition 1

Si f et g sont continues en a, alors f + g, λf (avec λ ∈ R) et f g aussi. Si de plus g(a) 6= 0 alors


f
g est continue en a.
Si f : R2 → R est continue et g : R → R aussi alors g ◦ f est continue.

Exemple. On peut ainsi montrer la continuité de presque toute fonction comme somme, différence, produit,
quotient et composition de fonctions coordonnées.
— f : (x, y) 7→ ax + by est continue car f = af1 + b2 .
— g : (x, y) 7→ sin(x) sin(y) est continue car g = sin(f1 ) sin(f2 ).
— h : (x, y) 7→ x2 + y 2 est continue car h = (f1 )2 + (f2 )2 .
— Les fonctions polynômiales, c’est-à-dire les sommes de fonctions de la forme axk y j où k et j sont
des entiers, sont continues.
— h1 : (x, y) 7→ exy−y arctan(x+1) est continue car h1 = ef1 f2 −f2 arctan(f1 +1) .

11.3 Dérivées partielles

Définition 5

Soit f : U → R où U est un ouvert de R2 . Soit a = (a1 , a2 ) ∈ U . On dit que f admet une dérivée
partielle d’ordre 1 par rapport à x (respectivement y) en a si f1 : x 7→ f (x, a2 ) est dérivable en
a1 (respectivement f2 : y 7→ f (a1 , y) est dérivable en a2 ). On a ainsi :

∂f f (x, a2 ) − f (a1 , a2 ) f (a1 + h, a2 ) − f (a1 , a2 )


∂1 f (a) = (a) = lim = lim
∂x x→a1 x − a1 h→0 h
∂f f (a1 , y) − f (a1 , a2 ) f (a1 , a2 + h) − f (a1 , a2 )
∂2 f (a) = (a) = lim = lim
∂y y→a2 y − a2 h→0 h

Remarque. Pour dériver par rapport à x, il suffit de faire comme si y est une constante.

Exemple. — Pour g : (x, y) 7→ sin(x) sin(y), on a ∂1 g(x, y) = cos(x) sin y et ∂2 g(x, y) = sin(x) cos(y).
— Pour h : (x, y) 7→ x2 + y 2 , on

a ∂1 h(x, y) = 2x et ∂2 h(x, y) = 2y.  
arctan 2x arctan 2x
 2 +1

y
— Pour f : (x, y) 7→ xe y +1 , on a ∂ f (x, y) =
1 1 + (y2 +1)2 +x2 e y +1 et ∂2 f (x, y) =
 
−2yx2 arctan 2x
x2 +(y 2 +1)2
e y +1 .

Définition 6

On dit que f est de classe C 1 sur U ouvert de R2 si f possède des dérivées partielles d’ordre 1
et si ces dérivées partielles sont continues.
70 CHAPITRE 11. FONCTIONS DE DEUX VARIABLES

Définition 7

Si f possèdes des dérivées partielles d’ordre 1 en (x, y), on appelle gradient de f en (x, y)
l’élément de R2  
∂1 f (x, y)
Gradf (x, y) =  
∂2 f (x, y)

Définition 8

Soit f définie sur U ouvert de R2 et admettant une dérivée partielle ∂i f avec i ∈ {1, 2}.
Si ∂i f admet une dérivée partielle par rapport à la j-ième variable alors on note celle ci ∂j,i 2 f.

Une fonction peut donc posséder 4 dérivées partielles d’ordre 2 : ∂1,12 f , ∂ 2 f , ∂ 2 f et ∂ 2 f .


1,2 2,1 2,2
On dit que f est de classe C 2 si pour tout i, j ∈ {1, 2}, ∂j,i
2 f est définie et continue sur U .

Théorème 1

Théorème de Schwarz
Si f : U → R est de classe C 2 alors
2 2
∂1,2 f = ∂2,1 f

11.4 Extrema 1
Définition 9

Soit f définie sur U un ouvert de R2 . On dit que f admet un maximum (resp. minimum) local
en a s’il existe r > 0 tel que

∀x ∈ U, kx − ak ≤ r =⇒ f (x) ≤ f (a) (resp. f (x) ≥ f (a))

On appelle extremum local un minimum local ou un maximum local.


On dit que f admet un maximum (resp. minimum) global en a si pour tout x ∈ U, f (x) ≤ f (a)
(resp. f (x) ≥ f (a))

Théorème 2

Si f est définie sur un ouvert de R2 , admet des dérivées partielles d’ordre 1 et admet un
extremum en a, alors le gradient de f est nul en a.
Les points où le gradient de f est nul sont appelés points critiques.

Remarque. Attention, un point critique n’est pas nécessairement un extremum.


Certains points critiques qui ne sont pas des extrema sont appelés points col (maximum dans une direction,
minimum dans une autre). Par exemple f : (x, y) 7→ y 2 − x2 a pour unique point critique (0, 0) qui est un
point col. Voici une représentation du graphe de f .
1. Le non-respect de la réforme orthographique de 1990 est voulu
11.4. EXTREMA 71

Le paraboloı̈de hyperbolique, appelé aussi PH ou selle de cheval

Définition 10

On appelle fonction quadratique une fonction f : R2 → R telle qu’il existe des réels a, b, c, non
tous nuls, tels que
f : (x, y) 7→ ax2 + 2bxy + cy 2

Théorème 3

La fonction quadratique f : (x, y) 7→ ax2 + 2bxy + cy 2 a un extremum local en 0 si et seulement


si ∆ = b2 − ac ≤ 0. Cet extremum est strict si ∆ < 0. C’est un minimum si a > 0 et un
maximum si a < 0 (et si a = 0 il faut voir avec c)

Démonstration. À venir

Théorème 4

Soit f une fonction de classe C 2 sur un ouvert U de R2 et u = (x0 , y0 ) un point critique de f .


2 f (u)x2 + 2∂ 2 f (u)xy + ∂ 2 f (u)y 2 .
On considère la fonction quadratique g : (x, y) 7→ ∂1,1 1,2 2,2
Si g admet un extremum en (0, 0) avec ∆ = (∂1,2 2 f (u))2 − ∂ 2 f (u)∂ 2 f (u) < 0 alors f admet
1,1 2,2
un extremum local en u de même nature.

Remarque. 4
! Si ∆ = 0, alors on ne peut rien dire de la nature du point critique.
72 CHAPITRE 11. FONCTIONS DE DEUX VARIABLES
Chapitre 12

Inégalités en probabilités

On rappelle les résultats suivants :

Théorème 1

Inégalité de Markov
Soit X une variable aléatoire, positive, admettant une espérance. On a pour tout t > 0 :

E(X)
P(X ≥ t) ≤
t

Théorème 2

Inégalité de Bienaymé-Tchebychev
Soit X une variable aléatoire admettant une variance. On a pour tout t > 0 :

V(X)
P(|X − E(X)| ≥ t) ≤
t2

Exercice 1. 1. Démontrer l’inégalité de Markov lorsque X est une variable aléatoire (positive et ad-
mettant une espérance) à densité.
2. Démontrer l’inégalité de Bienaymé-Tchebychev.

Loi faible des grands nombres


Théorème 3

Loi faible des grands nombres


Soit n ∈ N∗ et X1 , . . . Xn des variables aléatoires indépendantes, de même loi admettant une
Xn
1
espérance et une variance. On note X̄n = n Xi .
i=1

∀ε > 0, lim P(|X̄n − E(X1 )| ≥ ε) = 0


n→+∞

Remarque. On dit que X̄n converge en loi vers E(X).


Ce théorème permet de faire le lien entre espérance et moyenne (et entre probabilité et fréquence).

Exercice 2. Démontrer la loi faible des grands nombres.

73
74 CHAPITRE 12. INÉGALITÉS EN PROBABILITÉS

Intervalle de confiance
Théorème 4

Intervalle de confiance de niveau 1 − a


Soit n ∈ N∗ et X1 , . . . Xn des variables aléatoires indépendantes, de même loi admettant une
Xn
espérance et une variance. On note X̄n = n1 Xi .
i=1
" r r #!
V(X1 ) V(X1 )
∀a ∈]0, 1[, P E(X1 ) ∈ X̄n − , X̄n + ≥1−a
na na

Exercice 3. Démontrer le théorème précédent.


Remarque. Ce théorème est souvent utilisé alors que la variance de X1 est inconnue. On peut alors la
majorer : par 41 si les Xi suivent la loi de Bernoulli ; par M 2 si |X| ≤ M presque-sûrement.

Exercice 4. Démontrer ces deux bornes pour la variance.

Inégalité de Chernoff (HP)


Définition 1

Soit X une variable aléatoire. On note MX la fonction génératrice des moments de X définie
par :
MX : t 7→ E etX


aux points t où cette espérance est bien définie.

Exercice 5. Calculer la fonction génératrice des moments des lois suivantes :

1. X ∼ B(p) 3. X ∼ G(p) 5. X ∼ E(λ)


2. X ∼ B(n, p) 4. X ∼ P(λ) 6. X ∼ N (0, 1)

Théorème 5

Inégalité de Chernoff
Soit X une variable aléatoire telle que sa fonction génératrice des moments est bien définie sur
un intervalle I ⊂ R+ . On a alors

∀t ∈ I, ∀a ∈ R, P(X ≥ a) ≤ MX (t)e−ta

Exercice 6. Démontrer l’inégalité de Chernoff


Remarque. Le but de l’inégalité de Chernoff est ensuite de trouver le réel t qui minimise le majorant.
Cette inégalité est déjà apparue plusieurs fois dans les sujets d’ENS : 2019, 2015, 2004
75

Vous aimerez peut-être aussi