Académique Documents
Professionnel Documents
Culture Documents
I Variables à densité
1. Generalité
Définition I.1
Une variable aléatoire est dite continue ou à densité si il existe une fonction
𝑓 définie de ℝ dans ℝ vérifiant
Remarques I.1
Réciproquement pour toute fonction 𝑓 vérifiant les propriétés ci dessus, il
existe une variable aléatoire 𝑋 définie sur un espace de probabilité convenable
et admettant 𝑓 comme densité.
Définition I.2
Soit 𝑋 une variable aléatoire à densité 𝑓, la fonction de répartition de 𝑓 notée
𝐹𝑋 est définie pour tout réel 𝑥
𝑥
𝐹𝑋 (𝑥) = ∫ 𝑓 (𝑡)𝑑𝑡.
−∞
Proposition I.1
𝑃(𝑋 = 𝑥) = 0.
I VARIABLES À DENSITÉ 2. Fonction d’une variable aléatoire continue
Définition I.3
Deux var. 𝑋 et 𝑌 sont dites indépendantes si et seulement 𝑠𝑖
Remarques I.2
On montrer que l’indépendance est équivalente à
1 Calcul de densité de 𝑎𝑋 + 𝑏 :
Soit 𝑎 > 0,
𝑥 −𝑏 𝑥 −𝑏
𝑃(𝑌 ≤ 𝑥) = 𝑃(𝑋 ≤ ) = 𝐹( )
𝑎 𝑎
si 𝑎 < 0,
𝑥 −𝑏 𝑥 −𝑏
𝑃(𝑌 ≤ 𝑥) = 𝑃(𝑋 ≥ ) = 1 − 𝐹( )
𝑎 𝑎
En dérivant on obtient la densité de 𝑌
1 𝑥 −𝑏
𝑔(𝑥) = 𝑓( ).
|𝑎| 𝑎
2 Calcul de densité de 𝑋 2 :
Soit 𝑥 ∈ ℝ
si 𝑥 < 0, 𝑃(𝑌 ≤ 𝑥) = 0.
si 𝑥 > 0, 𝑃(𝑌 ≤ 𝑥) = 𝑃(−√𝑥 ≤ 𝑋 ≤ √𝑥) = 𝐹 (√𝑥) − 𝐹 (−√𝑥).
En dérivant on obtient la densité de 𝑌
𝑔(𝑥) = 0 si 𝑥 < 0.
1
𝑔(𝑥) = (𝑓 (√𝑥) + 𝑓 (−√𝑥)) si 𝑥 > 0.
2√𝑥
2 M.LAAMOUM
II MOMENTS D’UNE VARIABLE ALÉATOIRES À DENSITÉ
3 Calcul de densité de 𝑒 𝑋 :
Soit 𝑥 ∈ ℝ
si 𝑥 < 0, 𝑃(𝑌 ≤ 𝑥) = 0.
si 𝑥 > 0, 𝑃(𝑌 ≤ 𝑥) = 𝑃(𝑋 ≤ 𝐿𝑛(𝑥)) = 𝐹 (𝐿𝑛(𝑥)).
En dérivant on obtient la densité de 𝑌
𝑔(𝑥) = 0 si 𝑥 < 0.
1
𝑔(𝑥) = (𝑓 (𝐿𝑛(𝑥)) si 𝑥 > 0.
𝑥
Proposition II.1
𝐸(𝜆𝑋 ) = 𝜆𝐸(𝑋 )
𝑋 ≤ 𝑌 ⟹ 𝐸(𝑋 ) ≤ 𝐸(𝑌 )
Cette proposition exprime que l’espérance est une forme linéaire positive ou
croissante sur l’espace vectoriel des variables aléatoires admettant une espérance.
Théorème II.1 Théorème de transfert
Soit 𝑋 une variable aléatoire à densité 𝑓 et 𝜙 une fonction continue sur un
intervalle contenant 𝑋 (Ω) alors 𝐸(𝜙(𝑋 )) existe et
+∞
𝐸(𝜙(𝑋 )) = ∫ 𝜙(𝑡)𝑓 (𝑡)𝑑𝑡
−∞
3 M.LAAMOUM
II MOMENTS D’UNE VARIABLE ALÉATOIRES À DENSITÉ 2. Variance
2. Variance
Définition II.2
Soit 𝑋 une variable aléatoire à densité 𝑓, si la variable aléatoire (𝑋 − 𝐸(𝑋 ))2
admet une espérance on a
+∞
𝑉 𝑎𝑟(𝑋 ) = 𝐸((𝑋 − 𝐸(𝑋 ))2 ) = ∫ (𝑡 − 𝐸(𝑋 ))2 𝑓 (𝑡)𝑑𝑡.
−∞
Proposition II.2
𝑉 𝑎𝑟(𝑋 ) ≥ 0,
𝑉 𝑎𝑟(𝑎𝑋 ) = 𝑎2 𝑉 𝑎𝑟(𝑋 )
𝑉 𝑎𝑟(𝑋 + 𝑏) = 𝑉 𝑎𝑟(𝑋 ).
𝑋 −𝑚
si 𝑋 est d’espérance 𝑚 et d’écart-type 𝜎 ≠ 0, alors la variable 𝑌 = 𝜎
est centrée réduite.
Proposition II.3
3. Moment d’ordre 𝑟
Définition II.3
Soit 𝑋 une variable aléatoire à densité 𝑓, soit 𝑟 un entier naturel ≥ 1.Si la
fonction 𝑡 ↦ 𝑡 𝑟 𝑓 (𝑡) est intégrable sur ℝ On appelle moment d’ordre 𝑟
+∞
𝐸(𝑋 𝑟 ) = ∫ 𝑡 𝑟 𝑓 (𝑡)𝑑𝑡.
−∞
4. Lois usuelles
1 loi uniforme sur [𝑎, 𝑏] notée 𝒰([𝑎, 𝑏]).
Une densité de cette loi est
1
𝑓 (𝑥) = 1 .
𝑏 − 𝑎 [𝑎,𝑏]
4 M.LAAMOUM
II MOMENTS D’UNE VARIABLE ALÉATOIRES À DENSITÉ 4. Lois usuelles
On a
𝑎+𝑏 (𝑏 − 𝑎)2
𝐸(𝑋 ) = et 𝑉 𝑎𝑟(𝑋 ) = .
2 12
2 loi exponentielle de paramètre 𝜆 notée ℰ (𝜆),
Une densité est
𝑓 (𝑥) = 𝜆𝑒 −𝜆𝑥 1ℝ+ .
On a
1 1
𝐸(𝑋 ) = et 𝑉 𝑎𝑟(𝑋 ) = 2 .
𝜆 𝜆
3 loi normale 𝒩 (𝑚, 𝜎 2 )
Une densité 2
1 − 12 ( 𝑥−𝑚 )
𝑓 (𝑥) = 𝑒 𝜎
𝜎√2𝜋
On a
𝐸(𝑋 ) = 𝑚 et 𝑉 𝑎𝑟(𝑋 ) = 𝜎 2
En particulier si 𝑋 suit la loi normale 𝒩 (𝑚, 𝜎 2 ) , alors 𝑍 = 𝑋 −𝑚
𝜎
suit la loi
normale centrée réduite 𝒩 (0, 1) .
Graphe de la densité de la loi Gamma de paramètre v= 2, 3, 4.
4 loi gamma 𝛾 (𝜈) et Γ(𝑏, 𝜈)
+∞ 𝑥−1 −𝑡
On rappelle que Γ(𝑥) = ∫0 𝑡 𝑒 𝑑𝑡 pour 𝑥 > 0. 0.3
𝑓 (𝑡) = 𝑡 𝑒 1ℝ+ .
Γ(𝜈)
0.1
On a
𝐸(𝑋 ) = 𝜈 et 𝑉 𝑎𝑟(𝑋 ) = 𝜈.
0.0
Si 𝑋 suit la loi 𝛾 (𝜈), alors 𝑌 = 𝑏𝑋, 𝑏 > 0, suit la loi Γ(𝑏, 𝜈). Une densité de 𝑌 est
1 𝑡 1 𝜈−1 −𝑡/𝑏
𝑓 (𝑡) = 𝑓𝑋 ( ) = 𝑡 𝑒 1ℝ+ .
𝑏 𝑏 Γ(𝜈)𝑏 𝜈
On a sans calcul
𝐸(𝑌 ) = 𝑏𝜈 et 𝑉 𝑎𝑟(𝑌 ) = 𝑏 2 𝜈.
On a Γ(𝑏, 1) est une loi exponentielle de paramètre 1/𝑏.
Remarques II.1
La loi exponentielle a une caractéristique : elle est sans mémoire c.a.d :
donc
𝑃(𝑋 > 𝑡 + ℎ, 𝑋 > 𝑡)
𝑃(𝑋 > 𝑡 + ℎ|𝑋 > 𝑡) = = 𝑒 −𝜆ℎ = 𝑃(𝑋 > ℎ).
𝑃(𝑋 > 𝑡)
5 M.LAAMOUM
III CONVERGENCES 5. Somme de variables aléatoires à densité
𝑔(𝑡 + ℎ) = 𝑔(𝑡)𝑔(ℎ).
On montre alors que pour tout entier 𝑛, 𝑔(𝑛) = 𝑒 −𝜆𝑛 avec 𝜆 = −𝑙𝑛(𝑔(1) si
𝑔(1) > 0. Puis 𝑔(𝑝/𝑞) = 𝑒 −𝜆𝑝/𝑞 , puis avec la continuité de 𝑔 on conclut sur
ℝ+ .
est continue sauf peut-être un nombre fini de points, alors ℎ est une densité
de 𝑍 = 𝑋 + 𝑌.
Proposition II.4
III Convergences
Dans cette partie, on étudie le comportement de somme de variables aléatoires in-
dépendantes lorsque le nombre de termes tend vers l’infini.
1. Inégalité de Bienaymé-Tchebychev
Théorème III.1 Inégalité de Markov
Soit 𝑋 une variable aléatoire réelle définie sur un espace probabilisé (Ω, ℱ , 𝑃)
telle que 𝑋 (Ω) ⊂ ℝ+ et possédant une espérance 𝑚 = 𝐸(𝑋 ), alors on a
𝐸(𝑋 )
∀𝜆 > 0 𝑃 (𝑋 ≥ 𝜆) ≤ .
𝜆
6 M.LAAMOUM
III CONVERGENCES 2. Loi faible des grands nombres
Démonstration
Soit 𝑓 la densité de 𝑋.
+∞ +∞ +∞
𝐸(𝑋 ) = ∫ 𝑥𝑓 (𝑥)𝑑𝑥 ≥ ∫ 𝑥𝑓 (𝑥)𝑑𝑥 ≥ ∫ 𝜆𝑓 (𝑥)𝑑𝑥.
0 𝜆 𝜆
+∞
Or 𝑃 (𝑋 ≥ 𝜆) = ∫𝜆 𝑓 (𝑥)𝑑𝑥, d’ou le résultat.
𝜎2
∀𝜀 > 0 𝑃 (|𝑋 − 𝑚| ≥ 𝜀) ≤ .
𝜀2
Démonstration
on applique l’inégalité de Markov pour la variable 𝑌 = (𝑋 − 𝑚)2 et 𝜆 = 𝜀 2
Démonstration
Puisque les variables sont indépendantes
𝜎2
𝐸(𝑋𝑛 ) = 𝑚 et 𝑉 𝑎𝑟(𝑋𝑛 ) = .
𝑛
On applique l’inégalité de BT et on obtient le résultat.
7 M.LAAMOUM
III CONVERGENCES 3. Théorème de la limite centrée
Exemple III.1
où 𝑓 est une fonction continue sur [0, 1]. Si les méthodes classiques ne perme-
ttent pas le calcul de 𝐼 (𝑓 ), on peut utiliser la méthode suivante : soit (𝑋𝑖 )𝑖∈𝑁
une suite de variables aléatoires réelles définies sur un espace probabilisé
(Ω, ℱ , 𝑃) suivant la loi uniforme sur [0, 1]. On pose
𝑛
∑ 𝑓 (𝑋𝑖 )
𝑖=1
𝑓= .
𝑛
1
D’après la loi des grands nombres 𝑓 tend vers 𝐸(𝑓 (𝑋 )) = ∫0 𝑓 (𝑥)𝑑𝑥 = 𝐼 (𝑓 ).
2
Comme exemple prenons 𝑓 (𝑥) = 1 𝑒 −𝑥 /2 . Avec 1000 points, une réalisa-
√2𝜋
tion a donnée 0,3417, la valeur dans les tables est 0,3413.
Alors 𝑍𝑛 converge en loi vers une variable aléatoire réelle de loi 𝒩 (0, 1).
Remarques III.1
Ce théorème est très utile car il permet d’effectuer le calcul de :
𝑃(𝑎 < 𝑋𝑛 < 𝑏) = 𝑃(𝑎1 < 𝑍𝑛 < 𝑏1 ), on remplace alors 𝑍𝑛 par une loi normale.
8 M.LAAMOUM
III CONVERGENCES 4. Approximations
4. Approximations
Proposition III.1 Approximation de la loi binomiale par la loi normale
𝑌𝑛 −𝑛𝑝
On suppose que 𝑌𝑛 suit une loi binomiale ℬ(𝑛, 𝑝), on pose 𝑍𝑛 = , alors
√𝑛𝑝𝑞
(𝑍𝑛 ) converge en loi vers une variable aléatoire réelle de loi 𝒩 (0, 1).
Démonstration
On applique TLC à des variables 𝑋𝑛 suivant une loi de Bernoulli ℬ(1, 𝑝). Pra-
tiquement, pour 𝑛 ≥ 30, 𝑛𝑝 < 15 et 𝑛𝑝𝑞 < 5, on approche la loi binomiale
ℬ(𝑛, 𝑝) par la loi normale 𝒩 (𝑛𝑝, 𝑛𝑝𝑞).
5. Correction de continuité
Lorsque l’on approche une loi discrète par une loi continue, il est nécessaire de
remplacer chaque valeur prise par 𝑋 discrète par un intervalle car 𝑃(𝑋𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑒 ̀ = 𝑘) =
𝑃(𝑋𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑒 = 𝑘) = 0 !
Soit 𝑋𝑑 une variable discrète à valeurs dans {0, ⋯ , 𝑛}, on l’approche par une vari-
able continue 𝑋𝑐 , on a:
et Planche de Galton
𝑃(𝑋𝑑 = 0) = 𝑃(0 < 𝑋𝑐 < 1/2) 𝑃(𝑋𝑑 = 𝑛) = 𝑃(𝑛 − 1/2 < 𝑋𝑐 < 𝑛).
2√3
0.06
25, 5 − 20 24, 5 − 20
𝑃(24, 5 < 𝑋 < 25, 5) = Φ( ) − Φ( ),
0.04
2 √3 2√3
0.02
F 0 5 10 15 20
X
𝑃(24, 5 < 𝑋 < 25, 5) = Φ(1, 588) − Φ(1, 299) = 0, 0408. Approximation d’une loi B(100, 0.1) par une loi N (10, 9).
9 M.LAAMOUM
Probabilités : Chapitre 4 Exercices
Exercice 2:
0 si t ∈]1;
/ 2]
Soit f la fonction définie sur R par : f (t) = a
√ si t ∈]1; 2]
t−1
Déterminer a pour que f soit une densité de probabilité
Exercice 3:
Déterminer si les fonctions suivantes sont les fonctions de répartition d’une variable à densité. Si oui,
en donner une densité.
1
0 si x < 0 2. ∀x ∈ R, F (x) = 1 −
1. F (x) = x 2 −x
1 + ex
1 − 1 + e si x > 0
2
Exercice 4: (
0 si x < 0
Soit X une VAR dont la fonction de répartition F est définie par : F (x) = 2
1 − e−x /2 si x > 0
Montrer que X est une variable à densité et déterminer une densité de X.
Exercice 5:
Calculer, si elle existe, l’espérance de la variable X dont une densité est :
(
0 si t < 0 0 si t < 1
1. g(t) = 2. h(t) = 4 ln t
4te−2t si t > 0 si t > 1
t3
Exercice 6:
4 (1 − x)1/3 si 0 6 x 6 1
On considère la fonction f définie par : f (x) = 3
0 sinon
1. Montrer que f est la densité d’une variable aléatoire Y .
2. Déterminer la fonction de répartition F de la variable Y . Construire sa représentation graphique
dans un repère orthonormal.
3. Calculer l’espérance de la variable Y .
4. Calculer la probabilité de l’événement [0, 488 < Y 6 1, 2]
Exercice 8:
Soit X une VAR qui suit une loi uniforme sur [a; b]. Montrer que X admet une variance et la calculer.
Exercice 9:
On suppose que la distance en mètres parcourue par un javelot suit une loi normale. Au cours d’un
entrainement, on constate que :
– 10% des javelots atteignent plus de 75 mètres.
– 25% des javelots parcourent moins de 50 mètres.
Calculer la longueur moyenne parcourue par un javelot ainsi que l’écart-type de cette longueur.
On donne au dos la table de valeurs de la fonction de répartition de la loi N (0, 1).
Exercice 10:
Soit X une variable aléatoire suivant la loi exponentielle E(λ).
√
1. Déterminer la loi de la variable aléatoire Y = X.
2. Déterminer une densité de X 2 .
3. Déterminer une densité de X 3 .
Exercice 11:
Soit X une variable aléatoire à densité dont la fonction de répartition F est strictement croissante.
Déterminer la loi de la variable aléatoire Y = F (X).
Exercice 12:
Soit X une variable aléatoire dont une densité est la fonction f définie sur R par :
(
e−|x| si − ln 2 6 x 6 ln 2
f (x) =
0 sinon
Exercice 13:
Soit X une VAR admettant une densité f . On suppose que X prends ses valeurs dans R+ . Soit Y = [X]
(partie entière de X)
1. Déterminer la loi de Y .
2. a) Montrer que E(Y ) existe si et seulement si E(X) existe.
b) Montrer que si E(X) existe alors : E(Y ) 6 E(X) 6 E(Y ) + 1.
1. Rappeler la définition d’une densité de probabilité d’une variable aléatoire X suivant une loi expo-
nentielle de paramètre λ = 1. Donner la valeur de l’espérance et de la variance de X.
2. Utiliser la question précédente pour vérifier que f est bien une densité de probabilité, puis montrer
que T admet une espérance que l’on déterminera.
Quel est le temps moyen de passage en caisse ?
3. a) Démontrer que la fonction de répartition de T , notée FT est définie par :
(
0 si x < 0
FT (x) = −x
1 − (x + 1)e si x > 0
b) Montrer que la probabilité que le temps de passage en caisse soit inférieur à deux unités(de temps)
2e − 3
sachant qu’il est supérieur à une unité est égale à .
2e
4. Un jour donné, trois clients A, B, C se présentent simultanément devant deux caisses libres. Par
courtoisie, C décide de laisser passer A et B et de prendre la place du premier d’entre eux qui aura
terminé. On suppose que les variables TA et TB correspondant au temps de passage en caisse de A
et B sont indépendantes.
a) M désignant le temps d’attente du client C exprimer M en fonction de TA et TB .
b) Montrer que la fonction de répartition de la variable aléatoire M est donnée par :
(
0 si t < 0
P (M 6 t) =
1 − (1 + t)2 e−2t si t > 0
Z +∞
−2A −2A
Or lim − 2Ae −e + 1 = 1 donc l’intégrale g(t) dt est convergente et vaut 1.
A→+∞ 0
Z +∞
En conclusion g(t) dt est convergente et vaut 1.
−∞
g est une densité de probabilité.
Z x
Soit X une VAR de densité g. Notons G sa fonction de répartition. Par définition G(x) = g(t) dt.
−∞
Z x
Si x < 0 alors G(x) = 0 dt = 0.
−∞
Z 0 Z x
Si x > 0 alors G(x) = 0 dt + 4te−2t dt = 0 − 2xe−2x − e−2x + 1 = 1 − (2x + 1)e−2x . (Inutile de
−∞ 0
refaire le calcul, il a été fait dans le point (iii).)
(
0 si x < 0
G(x) =
1 − (2x + 1)e−2x si x > 0
2. (i) On remarque tout d’abord que u est bien une fonction positive car 0 > 0 et pour t > 0,
3 −t/2 2
e 1 − e−t/2 > 0.
2
(ii) La fonction nulle est continue sur ] − ∞; 0[ et par produit de fonctions continues, la fonction
3 2
t → e−t/2 1 − e−t/2 est continue sur ]0; +∞[. Donc u est continue sur R∗ .
2
De plus lim u = 0 = lim u = u(0) donc u est en fait continue sur R.
0− 0+
Z 0
(iii) Comme u est nulle sur ] − ∞; 0[, l’intégrale u(t) dt est convergente et vaut 0.
−∞
Z +∞
Sur [0; +∞[, u est continue donc l’intégrale u(t) dt ne pose problème qu’en +∞.
0
Soit A > 0 :
A
3 −t/2
Z
2 A
1 − e−t/2 dt = (1 − e−t/2 )3 0 = (1 − e−A/2 )3
e
0 2
Exercice 2:
(i) On remarque tout d’abord que pour que f soit bien une fonction positive il faut que a > 0 car 0 > 0
a
et pour t ∈]1; 2], √ > 0 ⇔ a > 0.
t−1
a
(ii) La fonction nulle est continue sur ] − ∞; 1]∪]2; +∞[ et la fonction t → √ est continue sur ]1; 2]
t−1
pour toute valeur de a.
Quelle que soit la valeur de a, f est continue sur R \ {1; 2}.
Z 1 Z +∞
(iii) Comme f est nulle sur ] − ∞; 1]∪]2; +∞[, les intégrales f (t) dt et f (t) dt sont convergentes
−∞ 2
et valent 0. Z 2
Sur ]1; 2], f est continue donc l’intégrale f (t) dt ne pose problème qu’en 1.
1
Soit 1 < A 6 2, :
a 2 √ √
Z
2
√
dt = 2a t − 1 A = 2a − 2a A − 1
A t−1
√
Z 2
Or lim 2a − 2a A − 1 = 2a donc l’intégrale f (t) dt est convergente et vaut 2a.
A→1 1
Z +∞
En conclusion f (t) dt est convergente et vaut 2a.
−∞
1
Pour que f soit une densité de probabilité il faut donc que a = .
2
Exercice 3:
1. (i) La fonction nulle est continue sur ] − ∞; 0[ et par produit de fonctions continues, la fonction
x 2 −x
x→1− 1+ e est continue sur ]0; +∞[. Donc F est continue sur R∗ .
2
De plus lim F = 0 = lim+
F = F (0) donc F est en fait continue sur R.
0
− 0
(ii) Pour les même raisons que la continuité sur R∗ , F est de classe C 1 su R∗ .
(iii) Sur ] − ∞; 0[, F est constante donc croissante.
x −x x 2 −x x x −x
Sur ]0; +∞[, F ′ (x) = − 1 + e + 1+ e = 1+ e . Donc pour x > 0,
′
2 2 2 2
F (x) > 0 et donc F est croissante sur ]0; +∞[.
F est croissante sur ] − ∞; 0[ et sur ]0; +∞[ et comme F est continue sur R, F est croissante
sur R.
x 2 −x
(iv) lim F (x) = lim 0 = 0 et grâce aux croissances comparées, lim 1+ e = 0 donc
x→−∞ x→−∞ x→+∞ 2
lim F (x) = 1.
x→+∞
Exercice 4:
(i) La fonction nulle est continue sur ] − ∞; 0[ et par produit de fonctions continues, la fonction x →
2
1 − e−x /2 est continue sur ]0; +∞[. Donc F est continue sur R∗ .
De plus lim F = 0 = lim
+
F = F (0) donc F est en fait continue sur R.
0
− 0
(ii) La fonction nulle est de classe C 1 sur ] − ∞; 0[ et par produit de fonctions de classe C 1 , la fonction
2
x → 1 − e−x /2 est de classe C 1 sur ]0; +∞[. Donc F est de classe C 1 sur R∗ .
X est donc une variable à densité.
Pour obtenir une densité il suffit de dériver(F là où F est dérivable.
0 si x < 0
Une densité de X est par exemple f (x) = 2 .
xe−x /2 si x > 0
Exercice 5:
Z 0
1. Comme t → t g(t) est nulle sur ] − ∞; 0[, l’intégrale t g(t) dt est absolument convergente et vaut
−∞
0. Z +∞
Sur [0; +∞[, t → |t g(t)| est continue donc l’intégrale |t g(t)| dt ne pose problème qu’en +∞.
0
Soit A > 0, par intégration par parties :
Z A Z A Z A Z A
2 −2t 2 −2t A −2t 2 −2A
4te−2t dt
|t g(t)| dt = 4t e dt = −2t e 0
+ 4te dt = −2A e +
0 0 0 0
Z A
Dans l’exercice 1 on a calculé : 4te−2t dt = −2Ae−2A − e−2A + 1
0
Z A
Donc |t g(t)| dt = −2A2 e−2A − 2Ae−2A − e−2A + 1.
0
Z +∞
2 −2A −2A −2A
Or lim −2A e −2Ae −e +1 = 1 donc l’intégrale t g(t) dt est absolument convergente
A→+∞ 0
et vaut 1. Z +∞
En conclusion t g(t) dt est absolument convergente et vaut 1.
−∞
Exercice 6:
1. (i) Pour x 6∈ [0; 1] on a f (x) = 0 > 0 et si x ∈ [0; 1], (1 − x) > 0 donc f (x) > 0.
f est bien une fonction à valeurs positives.
(ii) f est bien continue sur ] − ∞; 0[ et sur ]1; +∞[ car f est la fonction nulle sur ces intervalles.
Sur ]0; 1[ f est la composée de fonction continues donc f est continue.
f est donc continue sur R \ {0; 1}.
Z 0 Z +∞
(iii) Les intégrales f (x) dx et f (x) dx sont convergentes car f est nulle sur ces intervalles
−∞ 1
et ces intégrales valent 0.
Z 1
Sur [0; 1] la fonction f est continue donc l’intégrale f (x) dx est convergente. De plus :
0
Z 1 1
f (x) dx = −(1 − x)4/3 0 = 1
0
Z +∞ Z +∞
Donc f (x) dx est convergente et f (x) dx = 1
−∞ −∞
f est bien une densité de probabilité.
Z x
2. Par définition F (x) = f (t) dt.
−∞
Z x
• Si x < 0, F (x) = 0 dt = 0.
−∞
Z 0 Z x Z x
4
• Si 0 6 x 6 1, F (x) = f (t) dt + f (t) dt = (1 − t)1/3 dt = 1 − (1 − x)4/3 .
3
Z 0 −∞ Z 1 0 Z x 0 Z 1
4
• Si x > 1, F (x) = f (t) dt + f (t) dt + f (t) dt = (1 − t)1/3 dt = 1.
−∞ 0 1 0 3
0
si x < 0
F (x) = 1 − (1 − x) 4/3
si 0 6 x 6 1
1 si x > 1
0.5
−1 1
Z +∞
3. Pour les mêmes raisons qu’à la question 1, l’intégrale xf (x) dx est absolument convergente donc
−∞
Y admet une espérance et :
Z +∞ Z 1
4
E(Y ) = xf (x) dx = x(1 − x)1/3 dx
−∞ 0 3
Z 1 1
4/3 1
4/3 3 7/3 3
= −x(1 − x) 0
+ (1 − x) dx = − (1 − x) =
0 7 0 7
3
E(Y ) =
7
4. P (0, 488 < Y 6 1, 2) = F (1, 2) − F (0, 488) = 1 − 1 + (1 − 0, 488)4/3 = (0, 512)4/3 = 0, 4096
Exercice 7:
1. On a déjà vu que X admet une espérance et que E(X) = 1. Montrons maintenant que X admet un
moment d’ordre 2. Z 0
2
t → t g(t) est nulle sur ] − ∞; 0[, l’intégrale t2 g(t) dt est absolument convergente et vaut 0.
−∞
Z +∞
2 2
Sur [0; +∞[, t → |t g(t)| = t g(t) est continue donc l’intégrale t2 g(t) dt ne pose problème
0
qu’en +∞.
Soit A > 0, par intégration par parties :
Z A Z A A A
3
Z Z
2 3 −2t 3 −2t A 2 −2t 3 −2A
4t2 e−2t dt
t g(t) dt = 4t e dt = −2t e 0
+ 6t e dt = −2A e +
0 0 0 2 0
Z A
On a déjà calculé dans l’exercice 5 : 4t2 e−2t dt = −2A2 e−2A − 2Ae−2A − e−2A + 1.
0
Z A
3 3
Donc t2 g(t) dt = −2A3 e−2A − 3A2 e−2A − 3Ae−2A − e−2A + .
0 2 2
3 3 3
Or lim − 2A3 e−2A − 3A2 e−2A − 3Ae−2A − e−2A + = .
A→+∞ 2 2 2
Z +∞
3
Donc t2 g(t) dt converge absolument et E(X 2 ) = .
−∞ 2
3 1
On a donc V (X) = E(X 2 ) − E(X)2 = − 1 =
2 2
Exercice 8:
On rappelle qu’une densité d’une variable aléatoire X qui suit une loi uniforme sur [a; b] est :
1
si x ∈ [a; b]
f (t) = b − a
0 sinon
a+b
On sait déjà que X admet une espérance et que E(X) = .
2
Montrons que X admet un moment d’ordre 2. Z a Z +∞
2
2
t → t f (t) est nulle sur ] − ∞; a[ et sur ]b; +∞[ donc les intégrales t f (t) dt et t2 f (t) dt sont
−∞ b
convergentes et valent 0. Z b
2
De plus t → t f (t) est continue sur [a; b] donc t2 f (t) dt est convergente.
a
X admet donc un moment d’ordre 2 et :
b 3 b
t2 1 t b3 − a3 b2 + ab + a2
Z
2
E(X ) = dt = = =
a b−a b − a 3 a 3(b − a) 3
car b − a = (b − a)(b + ab + a2 ) (division euclidienne).
3 3 2
Exercice 9:
Notons X la VAR égale à la distance parcourue par le javelot. D’après l’énoncé, X suit une loi normale
de paramètres m et σ.
Le but de cet exercice est de trouver m et σ.
L’énoncé nous dit que :
La longueur moyenne parcourue par le javelot est 58, 69 et l’écart type est 12, 82.
Exercice 10:
On rappelle que la fonction de répartition d’une VAR X qui suit un loi exponentielle de paramètre λ
est donnée par :
(
0 si x < 0
F (x) =
1 − e−λx si x > 0
√
1. Notons G la fonction de répartition de Y . Par définition G(x) = P (Y 6 x) = P ( X 6 x).
√
• Si x < 0, P ( X 6 x) = 0.
√ 2
• Si x > 0, P ( X 6 x) = P (X 6 x2 ) = F (x2 ) = 1 − e−λx
(
0 si x < 0
On a donc G(x) = −λx2
.
1−e si x > 0
On montre facilement que G est continue sur R et de classe C 1 sur R∗ donc G est la fonction de
répartition d’une variable à densité et une densité de Y est par exemple :
(
0 si x < 0
g(x) = 2
2λxe−λx si x > 0
Exercice 11:
F est strictement croissante d’après les hypothèses de l’énoncé et est continue sur R car c’est la fonction
de répartition d’une variable à densité. Donc d’après le théorème de bijection monotone, F réalise une
bijection de R sur ]lim F ; lim F [=]0; 1[.
−∞ +∞
On note G fonction de répartition de la VAR Y = F (X).
Par définition G(x) = P (Y 6 x) = P (F (X) 6 x).
• Si x < 0 alors G(x) = 0 (il est impossible d’avoir F (X) < 0)
• Si x > 1 alors G(x) = 1 car l’événement [F (X) 6 1] est certain.
• Si 0 6 x 6 1 alorsG(x) = P (X 6 F −1 (x)) = F (F −1 (x)) = x.
0 si x < 0
On a donc G(x) = x si 0 6 x 6 1 .
1 si x > 1
On reconnait ici la fonction de répartition d’une VAR qui suit une loi uniforme sur [0; 1].
F (X) suit une loi uniforme sur [0; 1].
Exercice 12: Z x
1. Par définition F (x) = P (X 6 x) = f (t) dt.
Z x −∞
On montre facilement que G est une fonction continue sur R et de classe C 1 sur R \ {0, ln 2}.
Y est donc bien une variable à densité et une densité de Y est par exemple
(
2e−x si x ∈ [0; ln 2]
g(x) =
0 sinon
Exercice 13:
1. Y (Ω) = N et pour tout k ∈ N :
Z k+1
P (Y = k) = P ([X] = k) = P (k 6 X < k + 1) = f (t) dt
k
f (t) dt.
k
X Z k+1 XZ k+1 Z +∞
On sait que k f (t) dt converge et de plus f (t) dt converge car f (t) dt converge
k k 0
et vaut 1.Z
X k+1 Z +∞
Donc tf (t) dt est convergente et ainsi tf (t) dt est convergente.
k 0
f (x) dx = xg(x) dx et comme on sait que X admet un espérance on peut affirmer que
−∞ Z +∞ −∞
l’intégrale f (x) dx est convergente et vaut E(X) = 1.
−∞
Donc f est bien une densité de probabilité.
Z +∞ Z +∞
Si E(T ) existe, on a E(T ) = xf (x) dx = x2 g(x) dx. Comme on sait que X admet une
−∞ −∞
variance, on peut donc dire que X admet un moment d’ordre 2 et donc T admet une espérance.
D’après la formule de Kœnig,
On a donc bien (
0 si x < 0
Ft (x) =
1 − (x + 1)e−x si x > 0
b) On veut calculer
P ([T > 1] ∩ [T 6 2])
P[T >1] (T 6 2) =
P (T > 1)
P (1 6 T 6 2) FT (2) − FT (1)
= =
1 − P (T 6 1) 1 − FT (1)
−2 −1
−3e + 2e 2e − 3
= −1
= en multipliant en haut et en bas par e2
2e 2e
4. a) Le client C pourra passer en caisse dès que le plus rapide de A ou B aura fini. Donc le temps
d’attente de C correspond au plus petit temps de passage entre A et B :
M = min(TA , TB )
Exercice 2:
Soit (Xi )i∈N une suite de VAR deux à deux indépendantes. On suppose
que Xi suit une loi de Bernouilli
!
X + · · · + X n
1 n 1 X
de paramètre pi . On souhaite démontrer que pour tout ε, lim P − pi < ε = 1.
n→+∞ n n i=1
1. A quel résultat de cours cela vous fait-il penser ? Peut-on appliquer ici ce théorème ?
2. En vous inspirant de la démonstration du théorème cité dans la question précédente démontrer le
résultat demandé.
Exercice 3:
Soit (Xn )n>1 une suite de VAR définies sur un même espace probabilisé, indépendantes, suivant une
loi uniforme sur [0; 1]. Pour n > 1 on définit :
Mn = max(X1 , · · · , Xn ) et Yn = n(1 − Mn )
Exercice 4:
On considère une suite (Xn )n∈N∗ de variables de Poisson indépendantes de paramètre 1.
On pose Sn = X1 + · · · + Xn .
1. Quelle est la loi de Sn ?
2. Exprimer P (Sn 6 n) en fonction de n.
3. En utilisant le théorème de la limite centrée, montrer que :
n
X nk 1
lim e−n =
n→+∞
k=0
k! 2
Exercice 5:
Soit n un entier supérieur ou égal à 2. On considère n variables aléatoires indépendantes Z1 , · · · , Zn
Z1 + · · · + Zn
suivant toutes la loi géométrique de paramètre p (p ∈]0; 1[). On pose de plus Mn = .
n
1. Déterminer l’espérance m et l’écart type σn de Mn .
Z 1
2
2. Montrer que lim P (0 6 Mn − m 6 σn ) existe et exprimer sa valeur à l’aide de e−x /2 dx.
n→+∞ 0
Exercice 7:
Un lot de N pots de confiture contient 0, 2% de pots avariés. On cherche à calculer la probabilité que,
parmi 1000 pots, il y ait au plus 4 pots avariés ?
Pour cela on notera X la VAR aléatoire égale au nombre de pots avariés parmi 1000 pots, on reconnaitra
une loi usuelle et on supposera N bien choisi pour pouvoir effectuer des approximations de loi
Exercice 8:
Une entreprise fabrique des jouets électroniques. Après la fabrication de ces jouets, malgré des contrôles,
0, 6% des jouets restent défectueux : un jouet sortant de l’entreprise a ainsi la probabilité 0, 006 d’être
défectueux. On considère un lot de n jouets et parmi ceux-ci on appelle Xn le nombre de jouets défectueux.
1. Quelle est la loi de la variable aléatoire Xn ?
2. Pour n = 500, par quelle loi peut-on approcher la loi de la variable aléatoire Xn ? En déduire, pour
cette valeur de n, une approximation de la probabilité qu’il y ait au plus deux jouets défectueux.
Exercice 9:
Une entreprise compte 300 employés. Chacun d’eux téléphone en moyenne 6 minutes par heure. Quel
est le nombre de lignes que l’entreprise doit installer pour que la probabilité que toutes les lignes soient
utilisées au même instant soit au plus égale à 0,025.
On notera N le nombre de lignes installées dans l’entreprise, X la VAR égale au nombre d’employés
qui téléphonent à une instant t fixé, et on commencera au départ par calculer la probabilité qu’un employé
donné soit en √train de téléphoner à une instant t.
On donne 27 × 1, 96 + 30 ≈ 40, 18.
Exercice 10:
Un dé régulier est lancé 9 000 fois. On cherche à déterminer la probabilité de l’événement ≪ on a obtenu
100
6 entre 1 400 et 1 600 fois ≫. On note X la VAR égale au nombre de 6 obtenus. On donne √ ≈ 2, 83
1250
100, 5
et √ ≈ 2, 84.
1250
1. Quelle est la loi de X
2. Par quelle loi peut-on approcher la loi de X.
3. Calculer la probabilité demandée dans l’énoncé de deux façon : avec correction de continuité et sans
correction de continuité. Commenter les résultats obtenus.
4. A l’aide de l’inégalité de Bienaymé-Tchebychev, donner une minoration de la probabilité demandée.
Commenter.
P (|X| > x) = P (X > x) + P (X 6 −x) = 1 − Φ(x) + Φ(−x) = 1 − Φ(x) + 1 − Φ(x) = 2(1 − P (X 6 x))
On a donc :
1
∀x > 0, P (|X| > x) 6
x2
1
⇔2(1 − P (X 6 x)) 6
x2
1
⇔P (X 6 x) > 1 − 2
Z x 2x
1 2 1
⇔√ e−t /2 dt > 1 − 2
2π 2x
Z x −∞ √
−t2 /2 1
⇔ e dt > 2π 1 − 2
−∞ 2x
Exercice 2:
n
X1 + · · · + Xn 1X
1. On pose Xn = . On a alors E(Xn = pi . On s’intéresse donc dans cette question
n n i=1
à P (|Xn − E(Xn )| < ε) ce qui nous fait penser à la loi faible des grand nombre. Mais ici on ne peut
pas appliquer ce théorème car les Xi n’ont pas tous la même espérance.
n n
1X 1X
2. Comme les Xi sont supposées indépendantes on a V (Xn ) = 2 V (Xi ) = 2 pi (1 − pi ).
n i=1 n i=1
D’après l’inégalité de Bienaymé-Tchebychev, on a :
V (Xn )
0 6 P (|Xn − E(Xn )| > ε) 6
ε2
V (Xn )
⇒1 − 6 1 − P (|Xn − E(Xn )| > ε) 6 1
ε2
V (Xn )
⇒1 − 6 P (|Xn − E(Xn )| < ε) 6 1
ε2
n
1X 1
Or on sait que pi (1 − pi ) 6 1 donc V (Xn ) 6 2 1 = . Comme de plus V (Xn ) > 0 on a donc
n i=1 n
lim V (Xn ) = 0.
n→+∞
On en déduit donc que lim P (|Xn − E(Xn )| < ε) = 1.
n→+∞
∀x ∈ R, Gn (x) = P (Mn 6 x)
= P ([X1 6 x] ∩ · · · ∩ [Xn 6 x])
= P (X1 6 x) × · · · × P (Xn 6 x) car les Xi sont indépendantes
= F1 (x) × · · · × Fn (x)
0 si x < 0
Or on sait que les Xi suivent une loi uniforme sur [0; 1] donc : Fi (x) = x si 0 6 x 6 1
1 si x > 1
0
si x < 0
On a donc Gn (x) = xn si 0 6 x 6 1
1 si x > 1
• On a de plus :
x x
∀x ∈ R, Hn (x) = P (Yn 6 x) = P (n(1 − Mn ) 6 x) = P Mn > 1 − = 1 − Gn 1 −
n n
x
Pour pouvoir exprimer proprement Hn (x) en fonction de x, il nous faut calculer Gn 1 − . Pour
n
cela nous devons distinguer plusieurscas :
x x
• Si 1 − < 0 : ⇔ 1 < ⇔ n < x on a Hn (x) = 1 − 0 = 1.
n n
x x x n
• Si 0 6 1 − 6 1 : ⇔ −1 6 − 6 0 ⇔ 0 6 x 6 n on a Hn (x) = 1 − 1 − .
n n n
x x
• Si 1 − > 1 : ⇔ 0 > ⇔ x < 0 on a Hn (x) = 1 − 1 = 0.
n n
0 si x < 0
x n
En conclusion : Hn (x) = 1 − 1 − si 0 6 x 6 n
n
1 si x > n
2. On doit donc ici étudier la limite de Hn (x) lorsque n tend vers +∞ pour chaque x réel. Dans la
définition de Hn il y a trois positions possibles pour x mais on remarque que lorsque n → +∞, le
cas x > n va disparaitre. On va donc ici distinguer deux cas pour la position de x.
• Soit x un réel fixé tel que x < 0. On a alors lim Hn (x) = lim 0 = 0.
n→+∞ n→+∞
• Soit x un réel fixé tel que x > 0. Lorsque n va tendre vers +∞, n va devenir très grand et donc à
x n
partir d’un moment on aura 0 6 x 6 n. On aura donc Hn (x) = 1 − 1 − = 1 − en ln(1−x/n) .
n
x x
Or lorsque n → +∞, → 0 donc ln(1 − x/n) ∼ − et ainsi n ln(1 − x/n) ∼ −x. On a donc
n n→+∞ n n→+∞
n ln(1−x/n) −x
lim 1 − e = 1−e .
n→+∞
En conclusion Yn converge en loi vers une VAR Y dont la fonction de répartition est :
(
0 si x < 0
H(x) =
1 − e−x si x > 0
1
1
Z
2 /2
lim P (0 6 Mn − m 6 σn ) = lim P (0 6 Mn∗ ∗
6 1) = P (0 6 M 6 1) = √ e−x dx
n→+∞ n→+∞ 2π 0
Exercice 6:
Au cours de l’année M. Durand effectue donc 2 × 5 × 46 = 460 trajets.
Notons Xi la VAR égale à la durée en minutes du i-ème trajet. L’énoncé nous dit que les VAR Xi sont
mutuellement indépendantes et que E(Xi ) = 45 et V (Xi ) = 100.
X460
Le temps que passe M. Durand dans sa voiture en une année est donc Y = Xi et on cherche à
i=1
calculer P (Y > 21000).
Exercice 7:
Soit donc X la VAR égale au nombres de pots avariés parmi 1000 pots. On peut voir X comme un
système de tirage sans remise. En effet, on dispose d’un lot de N parmi lequel il y a 0,2 % de pots avariés
et 99,8 % de pots non avariés. Parmi ces N pots on en choisit 1000 (tirage sans remise) et on compte le
nombre de pots avariés parmi ces 1000 pots. On reconnait donc ici que X suit la loi hypergéométrique de
paramètres (N, 1000, 0.002).
Le but de cet exercice est de calculer P (X 6 4).
L’énoncé nous dit que l’on peut supposer N bien choisi pour faire des approximations de loi.
On suppose donc que N > 10000 et donc X suit approximativement une loi binomiale de paramètres
(1000, 0.002).
De plus on remarque que 1000 > 30 et 0, 002 6 0, 1 donc on peut en fait approcher la loi de X par la
loi de Poisson de paramètre 1000 × 0, 002 = 2.
La table de la loi de Poisson nous donne alors P (X 6 4) ≈ 0, 9473
Exercice 8:
1. Xn compte le nombre de réalisations de l’événements ≪ le jouet est défectueux ≫, qui est de probabilité
0.006, parmi n jouets. Xn suit donc la loi binomiale de paramètres (n, 0.006).
2. Dans cette question on suppose que n = 500. On a donc n > 30 et 0, 006 6 0, 1 donc on peut
approcher la loi de X500 par la loi de Poisson de paramètre 500 × 0, 006 = 3.
On cherche donc à calculer P (X 6 2) et d’après la table de valeurs de la loi de Poisson on a :
P (X 6 2) ≈ 0, 4232
Exercice 9:
Comme un employé téléphone en moyenne 6 minutes par heures, la probabilité qu’un employé donné
6 1
soit en train de téléphoner à un instant t est = .
60 10
X est la VAR qui compte le nombre de réalisation de l’événement ≪ l’employé téléphone à l’instant t ≫,
qui est de probabilité 0, 1, parmi 300 employés. X suit donc une loi binomiale de paramètres (300, 0.1).
On cherche donc N pour que P (X > N) 6 0, 025.
On remarque ici que 300 > 30, 300 × 0, 1 = 30 > 5 et 300 × 0, 9 = 270 > 5 donc on peut approcher
X − 30
la loi de X par la loi normale de paramètres (30, 27) ou encore la loi de X ∗ = √ par la loi normale
27
centrée réduite.
On a alors :
∗ N − 30 N − 30
P (X > N) = P X > √ ≈1−Φ √
27 27
Exercice 10:
1
1. X compte le nombre de réalisations de l’événement ≪ obtenir 6 ≫, qui est de probabilité
, au cours
6
1
de 9000 réalisation d’une même expérience donc X suit une loi binomiale de paramètre 9000,
6
1 5
2. On remarque que 9000 > 30, 9000 × > 5 et 9000 × > 5 donc on peut approcher la loi de X
6 6
X − 1500
par la loi normale de paramètres (1500, 1250) ou encore la loi de X ∗ = √ par la loi normale
1250
centrée réduite.
3. On veut calculer P (1400 6 X 6 1600).
• Sans correction de continuité :
1400 − 1500 ∗ 1600 − 1500
P (1400 6 X 6 1600) = P √ 6X 6 √
1250 1250
∗
≈ P (−2, 83 6 X 6 2, 83)
≈ Φ(2, 83) − Φ(−2, 83)
≈ 2Φ(2, 83) − 1 ≈ 0, 9954
• Avec correction de continuité :