Académique Documents
Professionnel Documents
Culture Documents
Année universitaire
2020-2021
Introduction........................................................................................................................................2
1. Loi de probabilité d’une variable aléatoire continue ....................................................................2
2. Espérance et variance d’une variable aléatoire continue .............................................................6
3. Lois continues usuelles ................................................................................................................9
a. Loi uniforme ............................................................................................................................9
b. Loi exponentielle .....................................................................................................................9
c. Loi normale ........................................................................................................................... 10
d. Tabulation de la loi normale (quantile d’ordre 𝜶) .................................................................. 12
e. Théorème d’addition de v.a. normales ....................................... Error! Bookmark not defined.
1
Introduction
Dans beaucoup de situations d’observations de phénomènes aléatoires, les v.a. étudiées peuvent
prendre des valeurs dans des intervalles continus de ℝ , par exemples, le prix d’un bien ou la
rémunération d’un salarié ou la durée de vie d’un produit. On peut citer beaucoup d’exemples où la
v.a. est censée obtenir des valeurs dans un ensemble infini non dénombrable.
Dans cette deuxième partie du chapitre 2, on va définir la loi de probabilité d’une v.a. continue, elle
est donnée sous forme d’une fonction dite densité de probabilité, mais on peut la définir, comme dans
le cas discret, par la fonction de répartition. On donnera ensuite les caractéristiques de la v.a., à savoir
l’espérance mathématique, la variance et l’écart-type. A la différence du cas discret où on utilisait des
sommes, ici pour le cas continu, on doit remplacer une somme par une intégrale.
On enchainera ensuite avec les lois continues usuelles les plus utilisées.
Définition :
On dit qu’une v.a. 𝑋 est continue si l’ensemble 𝑋() contient au moins un intervalle de ℝ .
Exemples :
Le poids d’un produit, sa taille ou son volume : poids d’un cylindre métallique, ses dimensions ;
poids d’un pot de confiture ; volume d’une bouteille de un litre de lait…
Le prêt immobilier accordé à un client ou l’indemnisation d’une compagnie d’assurance ou le
chiffre d’affaires d’un magasin en une journée sont des v.a. continues.
Le temps de réponse pour un SAV. Le temps alloué à la fabrication d’un produit. Le temps de
réponse à un traitement médicamenteux. Le temps en général est considéré comme une variable
continue.
Le prix d’un bien ou d’une action boursière. Le coût de séjour d’un patient dans un hôpital.
L’âge d’un client, son salaire et sa capacité de remboursement sont des v.a. continues.
Remarque :
On a la même probabilité pour des intervalles fermé ou ouvert ou semi-ouvert :
2
Propriétés :
Soit 𝑋 une v.a. continue de densité de probabilité 𝑓. Alors, on a :
1. 𝑓 (𝑥) ≥ 0 ∀ 𝑥 ∈ ℝ
2. 𝑓 est continue presque partout, c.à.d. continue sauf sur un ensemble dénombrable de points.
3. On vérifie toujours que
+∞
∫ 𝑓 (𝑥) 𝑑𝑥 = 1
−∞
Remarque :
Pour montrer qu’une fonction est une densité de probabilité, il suffit de vérifier les trois conditions ci-
dessus.
Exemple1 :
Soit 𝑋 la v.a. de densité de probabilité 𝑓 définie sur ℝ par :
3𝑥 (2 − 𝑥)
𝑠𝑖 𝑥 ∈ [0, 2]
𝑓 (𝑥 ) = { 4
0 𝑠𝑖 𝑥 ∉ [0, 2]
Si on veut calculer la probabilité que 0.5 < 𝑋 < 1.5 , il suffit d’utiliser la définition ci-dessus.
1.5 1.5
3𝑥 (2 − 𝑥) 3 𝑥3 3 3.375 0.125
𝑃 (0.5 < 𝑋 < 1.5) = ∫ 𝑑𝑥 = [𝑥 2 − ] = (2.25 − − 0.25 + )
0.5 4 4 3 0.5 4 3 3
= 0.6875 = 68.75%
Notons que les valeurs 0.5 et 1.5 sont dans l’intervalle [0, 2], si on veut calculer 𝑃(0.5 < 𝑋 < 3) on
sait bien que les valeurs qui nous intéresse sont dans [0, 2], ailleurs c’est des valeurs pour lesquelles
la densité 𝑓 s’annule et on peut écrire :
2
3𝑥 (2 − 𝑥)
𝑃 (0.5 < 𝑋 < 3) = 𝑃 (0.5 < 𝑋 < 2) = ∫ 𝑑𝑥 = 0.84375 = 84.375%
0.5 4
Graphe de la densité 𝒇 :
3
L’aire délimité par la courbe de 𝑓 et l’axe 𝑦 = 0 correspond à l’intégrale calculée et qui est par
définition la probabilité demandée. Par exemple, 𝑃 (0.5 < 𝑋 < 1.5) est l’aire délimité par la courbe de
𝑓, l’axe 𝑦 = 0 et les deux axes 𝑥 = 0.5 et 𝑥 = 1.5.
Exemple2 :
Soit 𝑋 la v.a. de densité de probabilité 𝑓 définie sur ℝ par :
2 𝑒 −2𝑥 𝑠𝑖 𝑥 ≥ 0
𝑓 (𝑥) = {
0 𝑠𝑖 𝑥 < 0
Calculons 𝑃(0.4 < 𝑋 < 0.6), 𝑃(𝑋 < 0.6) et 𝑃(𝑋 > 0.4) ; pour cela il suffit d’utiliser la définition ci-
dessus.
0.6
𝑃 (0.4 < 𝑋 < 0.6) = ∫ 2 𝑒 −2𝑥 𝑑𝑥 = [−𝑒 −2𝑥 ]0.6
0.4 = (−𝑒
−1.2
+ 𝑒 −0.8 ) = 0.1481 = 14.81%
0.4
0.6
𝑃 (𝑋 < 0.6) = ∫ 2 𝑒 −2𝑥 𝑑𝑥 = [−𝑒 −2𝑥 ]0.6
0 = (−𝑒
−1.2
+ 𝑒 0 ) = 0.6988 = 69.88%
0
+∞
𝑃 (𝑋 > 0.4) = ∫ 2 𝑒 −2𝑥 𝑑𝑥 = [−𝑒 −2𝑥 ]+∞
0.4 = (−𝑒
−∞
+ 𝑒 −0.8 ) = 𝑒 −0.8 = 0.4493 = 44.93%
0.4
Graphe de la densité 𝒇 :
4
Soit 𝑋 une v.a. continue. On appelle fonction de répartition de 𝑋, la fonction 𝐹 définie pour tout 𝑥 ∈
ℝ par
𝑥
𝐹 (𝑥) = 𝑃 (𝑋 ≤ 𝑥) = ∫ 𝑓(𝑦) 𝑑𝑦
−∞
Exemple1 :
Reprenons l’exemple1
0 𝑠𝑖 𝑥<0
𝑥 𝑥
3𝑦(2 − 𝑦)
𝐹 (𝑥) = ∫ 𝑓 (𝑦) 𝑑𝑦 = { ∫ 𝑑𝑦 𝑠𝑖 𝑥 ∈ [0, 2]
−∞ 0 4
1 𝑠𝑖 𝑥>2
0 𝑠𝑖 𝑥<0
𝑥
3 2 𝑦3
= [𝑦 − ] 𝑠𝑖 𝑥 ∈ [0, 2]
4 3 0
{ 1 𝑠𝑖 𝑥>2
0 𝑠𝑖 𝑥<0
3𝑥 2 𝑥
={ (1 − ) 𝑠𝑖 𝑥 ∈ [0, 2]
4 3
1 𝑠𝑖 𝑥>2
On peut calculer maintenant plus facilement les probabilités de la forme : 𝑃(𝑋 < 𝑥) ou 𝑃 (𝑋 > 𝑥) :
3(0.5)2 0.5
𝑃 (𝑋 < 0.5) = 𝐹 (0.5) = (1 − ) = 0.15625 = 15.625%
4 3
Exemple2 :
On reprend l’exemple2 :
0 𝑠𝑖 𝑥<0
𝑥
𝐹 (𝑥) = ∫ 𝑓 (𝑦) 𝑑𝑦 = { 𝑥
−∞ ∫ 2 𝑒 −2𝑦 𝑑𝑦 𝑠𝑖 𝑥≥0
0
0 𝑠𝑖 𝑥<0
={
[− 𝑒 −2𝑦 ]0𝑥 𝑠𝑖 𝑥≥0
0 𝑠𝑖 𝑥<0
={
1 − 𝑒 −2𝑥 𝑠𝑖 𝑥≥0
5
Propriété :
Soit 𝑋 une v.a. continue de fonction de répartition 𝐹. Alors on a :
▪ 𝐹 est une fonction continue sur ℝ
▪ 𝐹 est à valeurs dans [0, 1], et on a :
𝑙𝑖𝑚 𝐹(𝑥) = 0 , 𝑙𝑖𝑚 𝐹(𝑥) = 1
𝑥→−∞ 𝑥→+∞
Exemples :
Dans l’exemple1, on a : 𝑃(0.5 < 𝑋 < 1.5) = 𝐹 (1.5) − 𝐹 (0.5) = 0.84375 − 0.15625 = 0.6875.
Dans l’exemple2, on a : 𝑃(0.4 < 𝑋 < 0.6) = 𝐹 (0.6) − 𝐹 (0.4) = 0.6988 − 0.5507 = 0.1481.
Proposition :
Soit 𝑋 une v.a. continue de densité 𝑓 et de fonction de répartition 𝐹. Alors, ∀𝑥 ∈ ℝ, on a :
𝐹 ′ (𝑥) = 𝑓(𝑥)
Exemple :
Soit 𝑋 la v.a. de fonction de répartition suivante :
0 𝑠𝑖 𝑥<0
𝑥3
𝐹 (𝑥) = { 𝑠𝑖 𝑥 ∈ [0, 3]
27
1 𝑠𝑖 𝑥>3
𝑥2
𝑠𝑖 𝑥 ∈ [0, 3]
𝑓 (𝑥) = 𝐹 ′ (𝑥) = { 9
0 𝑠𝑖 𝑥 ∉ [0, 3]
Remarque :
On parlera d’espérance ou d’espérance mathématique, elle correspond à la valeur qu’on espère
retrouver, en moyenne, si on observe les valeurs de 𝑋.
6
Exemple1 :
On reprend l’exemple1.
+∞ 2 2
3𝑥 2 (2 − 𝑥) 3 2𝑥 3 𝑥 4 3 16 16
𝐸(𝑋) = ∫ 𝑥 𝑓(𝑥)𝑑𝑥 = ∫ 𝑑𝑥 = [ − ] = ( − ) = 1.
−∞ 0 4 4 3 4 0 4 3 4
𝐸(𝑋) = 1.
Exemple2 :
On reprend l’exemple2.
+∞ +∞
𝐸(𝑋) = ∫ 𝑥 𝑓(𝑥)𝑑𝑥 = ∫ 2 𝑥 𝑒 −2𝑥 𝑑𝑥 .
−∞ 0
Théorème :
Soit 𝑋 une v.a. continue de densité de probabilité 𝑓. Soit ℎ une fonction définie sur 𝑋() à valeurs
réelles. Alors, l’espérance de ℎ(𝑋), si elle existe, est donnée par
+∞
𝐸(ℎ(𝑋)) = ∫ ℎ(𝑥) 𝑓 (𝑥)𝑑𝑥
−∞
Remarque :
En statistique, on peut confondre l’espérance 𝐸(𝑋) à la constante universelle 𝜇 qui est par définition
la moyenne calculée sur toute la population de l’étude statistique. Par exemple si on veut étudier l’âge
de la population des clients qui s’intéresse à un produit, on va définir la v.a. 𝑋 : âge d’un client, son
espérance 𝐸(𝑋) coïncide avec la moyenne 𝜇 calculée sur tous les clients de la population, la
connaissance de 𝜇 ne sera possible que si on effectue un recensement de toute la population, ce qui
n’est pas faisable en général, puisque cette population n’est pas totalement accessible.
Définition de la variance :
Soit 𝑋 une v.a. continue de densité de probabilité 𝑓 . On appelle variance de 𝑋 , notée 𝑉𝑎𝑟(𝑋) ,
l’espérance si elle existe, de (𝑋 − 𝐸(𝑋))2
+∞
𝑉𝑎𝑟(𝑋) = 𝐸[(𝑋 − 𝐸(𝑋))2 ] = ∫ (𝑥 − 𝐸(𝑋))2 𝑓 (𝑥) 𝑑𝑥
−∞
Définition de l’écart-type :
On appelle écart-type de 𝑋, notée 𝜎(𝑋), la racine carrée de la variance :
𝜎(𝑋) = √𝑉𝑎𝑟(𝑋)
7
Remarques :
1. La variance n’est autre que le moment centrée d’ordre 2.
2. Pour toute v.a. continue 𝑋 d’espérance 𝐸(𝑋) et d’écart-type 𝜎(𝑋), on peut définir une v.a. centré
𝑌 = 𝑋 − 𝐸(𝑋) et on aura : 𝐸 (𝑌) = 0. De même on peut définir une autre v.a. centrée réduite 𝑍 :
𝑋 − 𝐸(𝑋)
𝑍= et on aura ∶ 𝐸(𝑍) = 0, 𝑉𝑎𝑟(𝑍) = 1
𝜎(𝑋)
3. Les propriétés de l’espérance et de la variance reste les mêmes que le cas discret :
▪ Pour tous 𝑎, 𝑏 ∈ ℝ, on a :
𝐸(𝑎𝑋 + 𝑏) = 𝑎 𝐸 (𝑋) + 𝑏
𝑉𝑎𝑟(𝑎 𝑋 + 𝑏) = 𝑎2 𝑉𝑎𝑟(𝑋)
▪ Formule de Koenig
𝑉𝑎𝑟(𝑋) = 𝐸[(𝑋 − 𝐸(𝑋))2 ] = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2
Exemple1 :
On reprend l’exemple1. On veut calculer 𝑉𝑎𝑟(𝑋), pour cela on utilise la formule de Koenig :
𝑉𝑎𝑟(𝑋) = 𝐸 (𝑋 2 ) − [𝐸(𝑋)]2 = 𝐸(𝑋 2 ) − 1
+∞ 2 2
3𝑥 3 (2 − 𝑥) 3 2𝑥 4 𝑥 5 3 32 32 6
𝐸(𝑋 2 ) = ∫ 2
𝑥 𝑓 (𝑥)𝑑𝑥 = ∫ 𝑑𝑥 = [ − ] = ( − )= .
−∞ 0 4 4 4 5 0 4 4 5 5
6 1
𝑉𝑎𝑟(𝑋) = 𝐸 (𝑋 2 ) − 1 = −1= .
5 5
Exemple2 :
On reprend l’exemple2.
1
𝑉𝑎𝑟(𝑋) = 𝐸 (𝑋 2 ) − [𝐸(𝑋)]2 = 𝐸(𝑋 2 ) −
4
+∞ +∞
𝐸(𝑋 2 ) = ∫ 𝑥 2 𝑓 (𝑥)𝑑𝑥 = ∫ 2 𝑥 2 𝑒 −2𝑥 𝑑𝑥
−∞ 0
1 1 1
𝑉𝑎𝑟(𝑋) = 𝐸 (𝑋 2 ) − [𝐸(𝑋)]2 = − = .
2 4 4
1
𝜎(𝑋) = √1⁄4 = = 0.5 .
2
8
3. Lois continues usuelles
Dans cette section, on donnera quelques lois universelles qui sont utilisées en pratique pour modéliser
certaines situations de phénomènes aléatoires rencontrées dans les études statistiques.
a. Loi uniforme
Soit la v.a. 𝑋 qui prend ses valeurs dans l’intervalle [𝑎, 𝑏], la loi uniforme stipule que pour des
intervalles dans [𝑎, 𝑏] de même amplitude, on aura la même probabilité partout.
𝑎 𝑏
Définition :
On dit que la v.a. 𝑋 suit une loi uniforme sur l’intervalle [𝑎, 𝑏] si sa densité est
1
𝑠𝑖 𝑥 ∈ [𝑎, 𝑏]
𝑓(𝑥) = {𝑏 − 𝑎
0 𝑠𝑖𝑛𝑜𝑛
On note 𝑿~𝓤(𝒂, 𝒃)
Remarque :
Cette loi modélise la loi d’une v.a. qui prend au hasard ses valeurs dans un intervalle continue de ℝ.
Elle est utilisée aussi dans la création sur ordinateur d’autres v.a. de lois connues, on parle de
simulation informatique de lois de probabilité.
b. Loi exponentielle
Définition :
Une v.a. 𝑋 est dite de loi exponentielle de parametre 𝜆 (𝜆 > 0) si sa densité est
𝜆 𝑒 −𝜆𝑥 𝑠𝑖 𝑥 ≥ 0
𝑓 (𝑥) = {
0 𝑠𝑖𝑛𝑜𝑛
9
Proposition : Soit 𝑋~𝐸𝑥𝑝(𝜆), on a :
1 1
𝐸 (𝑋) = 𝑒𝑡 𝑉𝑎𝑟(𝑋 ) =
𝜆 𝜆2
Remarque :
La loi exponentielle modélise les phénomènes liés au temps, par exemple, temps d’attente devant une
caissière dans un supermarché. Le domaine du contrôle et de la fiabilité modélise, avec cette loi, les
durées de vie des produits ou composants, par exemple, la durée de vie d’une batterie ou tout autre
composant électronique introduit dans un Smartphone ou un ordinateur.
c. Loi normale
L'expression mathématique de cette distribution de probabilité fut d'abord publiée par Abraham
DeMoivre en 1733. D'autres théoriciens sont également associés à cette fameuse loi
soit Laplace (1667-1754) et Friedreich Gauss(1777-1855). On parle de la loi "Normale", "Gaussienne"
ou de "Laplace-Gauss" lorsque l'on a à faire à une variable aléatoire continue dépendant d'un grand
nombre de causes indépendantes dont les effets s'additionnent et dont aucune n'est prépondérante
(Condition de Borel). Ainsi la taille d'un individu dépend de plusieurs facteurs, l'économie d'un pays....
Elle jouit d'une importance fondamentale puisqu'un grand nombre de méthodes statistiques repose
sur cette loi. Les applications pratiques associées à cette loi sont très nombreuses (tests,
Intervalles de confiance....), elle a des applications en économie, gestion, météorologie, médecine,
physique, biologie, etc.
Définition :
Une v.a. 𝑋 suit une loi normale de paramètre (𝜇, 𝜎) (avec 𝜎 > 0) si sa densité est
1 1 𝑥−𝜇 2
𝑓 (𝑥) = 𝑒− 2 (𝜎
)
, 𝑝𝑜𝑢𝑟 𝑥 ∈ ℝ
𝜎√2𝜋
On note 𝑿~𝓝(𝝁, 𝝈)
Remarque :
On remarquera que la densité de la loi normale est symétrique par rapport à 𝜇 :
𝑓(𝑥 − 𝜇) = 𝑓(𝑥 + 𝜇) ∀𝑥 ∈ ℝ
L’espérance 𝐸(𝑋) coïncide avec l’axe de symétrie 𝑥 = 𝜇. En général, pour toute densité symétrique
par rapport à un axe 𝑥 = 𝑎, si on cherche à calculer 𝐸(𝑋), il se trouve qu’elle est égal à 𝑎 :
𝐸(𝑋) = 𝑎
10
Définition de la loi normale standard (ou dite aussi centrée réduite):
Une v.a. 𝑋 est de loi normale standard si ses paramètres sont 𝜇 = 0 (centrée)et 𝜎 = 1,(réduite) sa
densité sera
1 𝑥2
−
𝑓(𝑥) = 𝑒 2, 𝑝𝑜𝑢𝑟 𝑥 ∈ ℝ
√2𝜋
et on note 𝑿~𝓝(𝟎, 𝟏)
11
Remarque :
En pratique, pour toute v.a. 𝑋 de loi normale, 𝑋~𝒩(𝜇, 𝜎), on associe la v.a. normale standard
𝑋−𝜇
𝑍=
𝜎
Alors 𝑍~𝒩(0, 1).
De la même manière on peut pour une probabilité 𝛼 déterminer le nombre 𝑧 qui lui correspond.
Dorénavant on note 𝑧𝛼 le nombre qui vérifie 𝜙(𝑧) = 𝛼 et on le nommera quantile d’ordre 𝜶. On
résume :
▪ Si 𝑧𝛼 ≥ 0 on détermine le 𝛼 qui lui correspond.
▪ Si 𝑧𝛼 < 0 on détermine le 𝛽 qui correspond à – 𝑧𝛼 et on pose 𝛼 = 1 − 𝛽.
▪ Si 𝛼 ≥ 0.5 on détermine 𝑧𝛼 qui lui correspond.
▪ Si 𝛼 < 0.5 on détermine 𝑧1−𝛼 puis on pose 𝑧𝛼 = −𝑧1−𝛼 .
Exemples :
Cherchons les probabilités associées aux quantiles suivants −1.56, −0.46, 0.64, 2.22.
▪ −1.56 = 𝑧1−0.9406 = 𝑧0.0594 (lecture sur la table : 1.56 = 𝑧0.9406 ).
▪ −0.46 = 𝑧1−0.6772 = 𝑧0.3228 (lecture sur la table : 0.46 = 𝑧0.6772 ).
▪ 0.64 = 𝑧0.7389 (lecture direct sur la table).
▪ 2.22 = 𝑧0.9868 (lecture direct sur la table).
12
Vue d’une table normale standard 𝓝(𝟎, 𝟏)
𝑋−5
Considérons maintenant une v.a. 𝑋~𝒩(5, 2) , la v.a. 𝑍 = 2
~𝒩(0, 1) . Calculons quelques
probabilités :
𝑋−5 4−5
𝑃 (𝑋 < 4) = 𝑃 ( < ) = 𝑃 (𝑍 < −0.5) = 1 − 𝜙(0.5) = 1 − 0.6915 = 0.3085 .
2 2
5.5 − 5
𝑃 (𝑋 > 5.5) = 1 − 𝑃(𝑋 ≤ 5.5) = 1 − 𝑃 (𝑍 ≤ ) = 1 − 𝑃 (𝑍 < 0.25) = 1 − 0.5987
2
= 0.4013 .
𝑃 (4 < 𝑋 < 5.5) = 𝑃 (𝑋 < 5.5) − 𝑃(𝑋 ≤ 4) = 0.5987 − 0.3085 = 0.2902 = 29.02% .
2−5 6−5
𝑃 (2 < 𝑋 < 6) = 𝑃 ( <𝑍< ) = 𝑃 (−1.5 < 𝑍 < 0.5) = 𝜙(0.5) − 𝜙(−1.5)
2 2
= 𝜙(0.5) + 𝜙(1.5) − 1 = 0.6915 + 0.9332 − 1 = 0.6247 = 62.47% .
13
𝑃 (𝑋 ≤ 𝑥) = 0.8554 et 𝑃 (𝑋 ≥ 𝑦) = 87.9%
𝑥−5 𝑥−5
𝑃 (𝑋 ≤ 𝑥) = 𝑃 (𝑍 < ) = 0.8554 = 1.06 𝑥 = 1.06 ∗ 2 + 5 = 7.12 .
2 2
𝑦−5 𝑦−5 5−𝑦
𝑃 (𝑋 ≥ 𝑦) = 1 − 𝑃 (𝑍 < ) = 1−𝜙( ) = 𝜙( ) = 87.9% = 0.879
2 2 2
5−𝑦
= 1.17 𝑦 = 5 − 1.17 ∗ 2 = 2.66 .
2
Maintenant on veut établir la loi de la somme de deux v.a. de lois normales, pour cela on a besoin de
définir la notion d’indépendance de v.a. continues.
14