Académique Documents
Professionnel Documents
Culture Documents
Nous avons vu, par exemple, que le phénomène de files d’attentes à une caisse pouvait être modélisé par
une loi de Poisson : ainsi, le nombre de clients X se présentant à une caisse en une durée donnée λ peut être
modélisé par une variable aléatoire dont la loi est
λk
P(X = k) = P(“exactement k clients se présentent à la caisse sur une période de temps λ”) = e−λ .
k!
Prenons maintenant l’exemple de la durée de vie d’un composant electronique. Notons T cette durée de vie. A
priori, T peut prendre n’importe qu’elle valeur dans [0; +∞[. Ainsi,
On s’interesse à la loi de probabilité de cette variable aléatoire T . Revenons à l’approche des probabilités par
les fréquences.
Le statiticien, pour déterminer “la” loi de T , va, dans un premier temps faire une étude statistique sur un
grand échantillon de composants electroniques. Pour chacun de ces composants, il consignera les durées de vie
et pourra ainsi dégager un modèle probabiliste (en approchant les probabilités par des fréquences).
L’événement {T = 3} aura une probabilité nulle : pourquoi ? En fait, il est très improbable que plusieurs
composants electroniques tombent en panne exactement au bout de 3 heures précises. L’un pourra tomber en
panne au bout de 3h01 minutes, l’autre 25 secondes plus tard, un autre 0, 03 seconde avant. Bref, considérer
des événements du type {T = k} comme dans le cadre des variables aléatoires discrètes, n’est pas
interessant. En revanche, des événements interessants à étudier seront des événements du type
{T ∈ [3; 3,5]}
On dit que la variable aléatoire T est continue. La loi de cette variable aléatoire est une loi continue.
En fait, pour définir la loi de probabilité d’une variable aléatoire continue, il suffit de se donner les nombres
Autrement dit, pour tout réel t, on a FX (t) = P(X 6 t) = P(X ∈] − ∞; t]).
Nous avons dit précédemment que connaı̂tre la fonction FX c’était connaı̂tre la loi de probabilité. En effet,
nous avons,
P(X ∈ [a; b]) = P(X ∈]a; b]) = P(X ∈]a; b[) = P(a < X 6 b) = P(X 6 b) − P(X 6 a) = FX (b) − FX (a).
En effet, contrairement aux variables aléatoires discrètes, si X est une variable aléatoire continue, nous avons
P(X = a) = P(X = b) = 0.
B Densité de probabilité
Définition. On suppose que la fonction de répartition FX est dérivable sur R. La fonction dérivée de FX ,
notée fX est appelée densité de probabilité de la variable aléatoire X.
Nous avons vu que la fonction de répartition caractérise la loi de probabilité de X. Nous pouvons affirmer que
la fonction densité fX caractérise elle aussi la loi de X. En effet,
Proposition. Si X est une variable aléatoire continue admettant une densité de probabilité fX et si a, b
sont deux réels tels que a < b, alors on a
0
fX = FX et
Z b
P(X ∈ [a; b]) = P(X ∈]a; b]) = P(X ∈]a; b[) = P(a < X 6 b) = FX (b) − FX (a) = fX (t)dt.
a
et Z b
fX (x)dx = FX (b).
−∞
Rb
Remarques. Nous n’avons jamais vu la notation −∞ f (x)dx, que signifie-t-elle ?
Tout d’abord, cette intégrale existe si et seulement si la limite
Z b
lim f (x)dx
a→−∞ a
Définition. Soit X une variable aléatoire continue de densité de probabilité fX . Alors, on définit, lorsqu’elles
existent, l’espérance et la variance de X par
Z +∞ Z +∞
E(X) = tfX (t)dt Var(X) = t2 fX (t)dt − E(X)2 .
−∞ −∞
0 si t < 0
(
f (t) = 1 −t
e m sinon
m
Par exemple, pour m = 2, on représente la densité de probabilité et la fonction de répartition FX : t 7→ P(X 6 t).
On a, pour tout t < 0, Z t Z t
FX (t) = P(X 6 t) = fX (x)dx = 0dx = 0
−∞ −∞
et pour t > 0, on a
t t
1 −x
Z Z
x x=t
FX (t) = P(X 6 t) = fX (x)dx = e 2 dx = −e− 2 x=0 = 1 − e−t/2
−∞ 0 2
1.0
On dit qu’une variable aléatoire continue X suit la loi normale
N (m; σ), et on note X ∼ N (0; 1) lorsque sa densité de probabilité
f est
0.5 1 t−m 2
!
f 1 −
f (t) = √ e 2 σ
σ 2π
" !
−3 −2 −1 1 2
On admettra le fait que f est bien une densité de probabilité (hors de notre portée) et le résultat suivant :
Théorème. 1) La densité de probabilité f de la loi normale centré réduite N (m; σ) est une courbe en
cloche, symétrique par rapport à la droite d’équation x = m
2) Si X ∼ N (m; σ), alors
E(X) = m Var(X) = σ 2 σX = σ
En fait les paramètres m et σ d’une loi normale sont respectivement l’espérance et l’écart-type de
cette loi.
Proposition. 1) Soient a et b deux réels, et X une variable aléatoire telle que X ∼ N (m; σ) alors, la
variable aléatoire Y = aX + b suit elle aussi une loi normale :
X −m
la variable aléatoire X ∗ = suit la loi X ∗ ∼ N (0; 1).
σ
0.5
f On dit qu’une variable aléatoire continue X suit la loi normale
centrée réduite, et on note X ∼ N (0; 1) lorsque sa densité de
probabilité f est
t2
1 −
f (t) = √ e 2 .
2π
−3 −2 −1 1 2
" !
P(X 6 t) 0.5
Cependant, nous sommes confrontés à un problème de taille : nous
f ne savons pas calculer cette intégrale car nous ne disposons pas de
x2
primitive de la fonction x 7→ e− 2 . Cependant, cette loi est tabulée
(comme la loi de Poisson) : les probabilités Π(t) = P(X 6 t) ont
été calculées pour différentes valeurs de t puis consignées dans un
t tableau.
−3 −2 −1 1 2
Exercice 1 T suit une loi normale centrée réduite : T ∼ N (0; 1). En utilisant la table et les
propriétés de symétrie de la courbe représentative de la densité, calculer :
0.5
f
• P(T 6 1,67) =
−3 −2 −1 1 2
0.5
f
• P(T > 1,25) =
−3 −2 −1 1 2
0.5
f
• P(T 6 −1,67) =
−3 −2 −1 1 2
0.5
f
• P(0,5 6 T 6 1,5) =
−3 −2 −1 1 2
0.5
f
• P(−2 6 T 6 1.5) =
−3 −2 −1 1 2
0.5
f
• P(−2 6 T 6 2) =
−3 −2 −1 1 2
0.5
• Déterminer le réel positif t tel que f
P(−t 6 T 6 t) = 0,95
−3 −2 −1 1 2
Cette observation sera formaliseé comme étant l’un des plus grands théorèmes des
probabilités : le théorème central-limit (TCL). En fait, ce théorème dit vulgaire-
ment qu’on peut approcher la loi de la somme d’un très grand nombre de
variables aléatoires indépendantes et de même loi par une loi normale.
Ceci explique pourquoi la loi normale joue un rôle clé en probabilité et en statistiques.
Ainsi, on l’utilise pour modéliser une grandeur qui est sujette à une
somme d’un grand nombre d’erreurs, erreurs qui proviennent de causes
indépendantes. Pour beaucoup de phénomènes naturels, on observe une distribution
des fréquences sous forme de courbe en cloche, comme la distribution gaussienne
(beaucoup d’individus autour de la moyenne, très peu aux extrêmes, distribution
quasi symétrique).
Nous allons voir maintenant qu’il est également possible d’approcher une loi binomiale (qui est une loi discrète)
par une loi normale (qui est une loi continue).
Il faudra cependant prendre garde dans les calculs car nous savons que pour une variable aléatoire discrète X
de loi binomiale à valeurs dans J0; nK, nous avons, en général
P(X = k) > 0
alors que pour une variable aléatoire T suivant une loi normale nous avons vu que
P(T = k) = 0
(l’intégrale d’une fonction continue entre k et k est nulle !). Pour palier à ce soucis, on fera une légère correction
(que l’on appelle correction de continuité) :
P(X = k) ' P(k − 0,5 6 T 6 k + 0,5).
Proposition. Lorsque n est assez grand avec p pas trop proche de 0 ou 1 et npq > 10, on peut
approcher la loi de X ∼ B(n, p) par une loi normale N (m, σ) où
√ p
m = np et σ = npq = np(1 − p).
En notant T une variable aléatoire gaussienne N (m, σ), alors, pour tout k ∈ J0; nK, on a