Vous êtes sur la page 1sur 12

Cours de Statistiques Contenu du Chapitre 2

1. Principales lois de probabilités


Focus sur le Chapitre 2: lois de probabilités 1.1. Lois discrètes
1.2. Lois continues
Licence 3 – Parcours Gestion et Finance 2. Convergence et approximations

Stéphane ROBIN
Université Paris 1 Panthéon-Sorbonne
Département de Gestion – EM Sorbonne

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance

1. Lois de probabilités fondamentales 1.1. Lois discrètes: la loi de Bernoulli


 Lois discrètes: Beaucoup de lois ont été "découvertes" ou "inventées" à partir
 Loi de Bernoulli du XVIIème dans le cadre de réflexions sur les jeux de hasard.
 Loi binomiale
 Loi de Poisson La loi de Bernoulli est sans doute la plus simple de toutes; on
 Loi uniforme discrète peut l'appliquer par exemple au jeu "pile ou face".

 Lois continues: La VA X suit une loi de Bernoulli de paramètre p, notée B(1; p),
 Loi uniforme continue si elle prend la valeur 1 avec une probabilité p et la valeur 0
 Loi normale avec une probabilité 1 – p = q.
 Loi du Khi-deux
 Loi de Student On appelle aussi X variable aléatoire indicatrice car elle
 Loi de Fisher indique l'éventuelle réalisation d'un évènement de probabilité p.

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance


Loi de Bernoulli: espérance et variance Lois discrètes: La loi Binomiale
La loi binomiale permet de modéliser une succession d'épreuves
L'espérance et la variance d'une VA X suivant la loi de Bernoulli de Bernoulli: jeu de "pile ou face" répété ou plus généralement
de paramètre p sont égales respectivement à: tirage avec remise

E(X) = p Par exemple, si on jette n fois une pièce (en misant sur face), elle
permet de déterminer le nombre k (k ≤ n) où on obtient
Var(X) = p(1 – p) = pq effectivement la valeur face.

où q =1 – p Formellement, la VA X suit une loi binomiale de paramètres n et p,


notée B(n, p), si elle prend la valeur k (k ≤ n) avec la probabilité:
Pr( X = k ) = C nk p k (1 − p ) n − k = C nk p k ( q ) n − k
avec q = 1 – p

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance

Loi Binomiale: espérance et variance Loi Binomiale: propriétés utiles

L'espérance et la variance d'une VA X suivant la loi Binomiale La somme de m VA de Bernoulli B(1, p) mutuellement
de paramètres n et p sont égales respectivement à: indépendantes est une VA binomiale B(m, p)

E(X) = np Soit X1 une VA binomiale B(n1, p), et soit X2 une VA binomiale


B(n2, p). Si X1 et X2 sont indépendantes, alors leur somme X1+X2
Var(X) = np(1 – p) = npq est une VA binomiale de loi B(n1+n2, p).

où q =1 – p Cette dernière propriété s'étend à la somme de m VA binomiales


mutuellement indépendantes de même paramètre p.

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance


Lois discrètes: la loi de Poisson Loi de Poisson: espérance et variance
Cette loi, qui porte le nom de son "inventeur" (mathématicien et L'espérance et la variance d'une VA X suivant une loi de
physicien du XVIIIème siècle), est très utile en gestion. Poisson de paramètre λ sont égales respectivement à:

Elle permet de modéliser la probabilité que surviennent des E(X) = λ


évènements "rares" (accidents, crises, etc.)
Var(X) = λ
Une VA X suit une loi de Poisson de paramètre λ (λ > 0), notée
P (λ), si elle prend la valeur entière positive k avec une Autrement dit, la loi de Poisson est une loi discrète dont
probabilité égale à : l'espérance est égale à la variance.
λk
Pr( X = k ) = exp(−λ ) La loi de Poisson P(λ) peut être utilisée pour approcher la loi
k!
binomiale B(n, p) en posant λ = np (avec n "assez grand").

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance

Applications de la loi de Poisson Loi de Poisson: fonction de répartition


1

Principe: on compte le nombre de fois où un événement "rare"


0.9

VA X de loi P(λ)
0.8

0.7

se produit pendant une période de temps donnée (ou une unité 0.6

Pr(X<=x)
λ=2
0.5

0.4

équivalente) 0.3

0.2

0.1

0
En abscisse: valeurs de X
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Exemples d’événements rares : 1


Valeurs de X
(seules les valeurs 0 à 15
sont représentées)
0.9

0.8

 nombre d'accidents industriels par mois dans une usine 0.7

0.6

Pr(X<=x)
λ=5 0.5

0.4

 nombre d'éléments défectueux dans un lot de produit donné 0.3

0.2 En ordonnée: Pr(X ≤ x)


0.1

 nombre d'erreurs par trimestre dans les comptes d'une société


0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Valeurs de X

0.9

0.8

Propriété utile: la somme de n VA X1, …, Xn indépendantes 0.7

λ = 10
0.6
Pr(X<=x)

suivant des lois de Poisson de paramètres λ1,…, λn est une VA


0.5

0.4

0.3

de Poisson de paramètre λ1+…+λn.


0.2

0.1

0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Valeurs de X

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance


Lois discrètes: la loi uniforme discrète Loi uniforme discrète: espérance et variance
Si la VA X suit la loi uniforme discrète sur [1, n] son espérance
Soit n ∈ *. Une VA X suit une loi uniforme discrète si X
et sa variance sont égales respectivement à:
prend n valeurs possibles, k1, k2, …, kn avec une probabilité
égale à 1/n pour n'importe quelle valeur ki (i = 1,2, …, n)
E(X) = (n+1)/2 et Var(X) = (n² - 1)/12
En particulier, la VA X suit la loi uniforme discrète sur [a; b] où
Si la VA X suit la loi uniforme discrète sur [a; b], son espérance
a, b ∈  et a ≤ b, si X prend comme valeurs possibles a, a+1, et sa variance sont égales respectivement à:
a+2, …, b avec la probabilité 1/(b – a +1) pour n'importe laquelle
de ces valeurs.
E(X) = (a+b)/2 et Var(X) = (b – a)(b – a +2)/12
La loi uniforme discrète sur [1, n] peut s'appliquer à toute
Attention: la somme de deux VA uniforme n'est pas une VA
situation aléatoire à n issues équiprobables dès lors que celles-
uniforme!
ci peuvent être associées aux nombres 1 à n.

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance

1.2. Lois continues: la loi uniforme continue Loi uniforme continue:


Soit X une VA définie sur l'intervalle [a; b] ⊂  (et non plus  !),
espérance et variance
X suit la loi uniforme continue si elle admet la fonction de
densité suivante: Soit X une VA continue de loi uniforme sur l'intervalle [a; b]. Son
espérance et sa variance s'écrivent respectivement :
0 si x ∉ [a; b]
f ( x) =  1 E(X) = (a+b)/2 et Var(X) = (b – a)² /12
si x ∈ [a; b]
 b − a
La fonction de répartition F(x) est : Comme dans le cas discret, mla somme de deux VA de loi
uniforme continue n'est pas une VA de loi uniforme continue.
0 si x < a,
x −a
F ( x) =  si x ∈ [a; b]
b − a
1 si x > b
S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance
Lois continues: la loi Normale Loi N(µ, σ): densité et répartition
Il s'agit de la loi continue (et sans doute de la loi de probabilité) Une VA X à valeurs dans R suit une loi normale de paramètres
la plus utilisée. C'est l'équivalent probabiliste de la distribution µ∈R et σ > 0, notée N(µ, σ), si X est continue et admet pour
"normale" ou "gaussienne" rencontrée au chapitre 1. densité de probabilité la fonction f suivante:
Elle est aussi appelée loi gaussienne (ou de Gauss-Laplace), en 1  1  x − µ 2 
f ( x) = exp −  
hommage à ses "inventeurs". On l'a baptisée "normale" car elle
2πσ ²  2  σ  
permet de décrire un grand nombre de phénomènes aléatoires.  
La fonction de répartition correspondante s'écrit:
Ainsi, quand le processus qui sous-tend un phénomène x−µ
aléatoire est inconnu, on supposera souvent, en première x σ
1  t² 
approximation, qu'il s'agit d'une loi normale (voir plus loin) F ( x) = ∫ f (t )dt =
−∞ 2πσ ²

−∞
exp − dt
 2

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance

Loi N(µ, σ) : propriétés


Loi N(µ, σ) : espérance et variance
1. Symétrie
Si l'écriture de la densité et de la fonctions de répartition de la loi La fonction de densité de la loi N(µ, σ) vérifie, pour tout u:
normale est compliquée, son espérance et sa variance sont on
ne peut plus simple: f(µ+u) = f(µ-u)
La fonction de répartition de la loi N(µ, σ) vérifie, pour tout x:
E(X) = µ
F(µ-x) = 1 - F(µ+x)
Var(X) = σ² 2. Somme de deux VA indépendantes
N.B.: dans les manuels anglophones, la loi normale est souvent La somme de deux VA indépendantes X1 et X2 de lois N(µ1, σ1)
notée N(µ, σ²) au lieu de N(µ, σ). L'écriture de la densité et de la et N(µ2, σ2) est une VA de loi N(µ1+µ2, σ1+σ2).
fonction de répartition reste évidemment la même.
Attention, cela n'est vrai que si X1 et X2 sont indépendantes.

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance


Loi N(µ, σ) : intervalles remarquables Loi normale: graphique de la densité
Avec la loi normale N(µ, σ), on retrouve l'équivalent probabiliste
de la règle empirique présentée dans le chapitre 1: 0.45 0.9

0.4 0.8

Pr(µ-σ < X < µ+σ) ≈ 68%


0.35 0.7

0.3 0.6

0.25 0.5

f(x)

f(x)
Pr(µ-2σ < X < µ+2σ) ≈ 95%
0.2 0.4

0.15 0.3

0.1 0.2

0.05

Pr(µ-3σ < X < µ+3σ) ≈ 99.7%


0.1

0 0
-10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 -10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10
Valeur de x Valeurs de x
mu = 0 mu = 2 mu = 4 sigma = 0.5 sigma = 1 sigma = 2

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance

Loi normale: graphique de la répartition Loi normale: autre graphique de répartition


Pour une valeur u donnée, F(u) = Pr(X ≤ u) est représentée par
l'aire sous la courbe de densité en-deça de l'abscisse u:
1.2 1.2

1 1

0.8 0.8
F(x)

F(x)

0.6 0.6

0.4 0.4
F(u) = Pr(X ≤ u)
0.2 0.2

f(x)
0 0
-10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 -10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10
Valeurs de x Valeurs de X 1-F(u) = Pr(X > u)
mu = 0 mu = 2 mu = 4 sigma = 0.5 sigma = 1 sigma = 2

Valeurs de x u

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance


Loi normale: illustration de la symétrie Loi normale: intervalle remarquable
La courbe de densité est symétrique par rapport à l'espérance µ :

Pr(X ≤ µ+x)
= F(µ+x)
1 – Pr(X ≤ µ+x) 1 – Pr(X ≤ µ+x)
Pr(X ≤ µ-x) = 1 – F(µ+x)
= 1 – F(µ+x)
= F(µ-x) Pr(µ -2σ ≤ X ≤ µ +2σ)
≅ 0,95

µ µ+x µ-x µ µ+x

Le graphique de droite illustre la propriété F(µ-x) = 1 – F(µ+x)


µ -2σ µ µ+2σ

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance

Loi N(µ, σ) : approximations Loi Normale centrée réduite


La loi normale N(µ, σ) permet d'approcher: La loi normale centrée réduite, notée N(0, 1) est un cas
 la loi binomiale B(n, p) avec n "assez grand" et p "moyen". On
particulier de la loi normale très intéressant car:
utilise l'approximation µ= np et σ² = np(1-p) = npq, ce qui donne
la loi normale: 1. ses valeurs sont bien connues et figurent dans des tables
statistiques
(
N np, np(1 − p) ) ou (
N np, npq ) 2. toute loi normale peut se ramener à la loi normale centrée
réduite à l'aide d'une transformation simple. Pour une VA X
 la loi de Poisson P(λ) quand λ est "grand". On utilise suivant une loi N(µ, σ), il suffit de retrancher µ à X et de diviser
l'approximation µ = λ et σ² = λ, ce qui donne la loi normale: cette différence par σ pour se ramener à une VA de loi N(0, 1).

(
N λ, λ )
S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance
Loi N(0,1): densité et répartition Passage de la loi N(µ, σ) à la loi N(0,1)
Une VA X à valeurs dans  suit une loi normale centrée On passe de X ~ N(µ,σ) à Z ~ N(0,1) avec Z = (X - µ)/σ
réduite, notée N(0, 1), si X est continue et admet pour densité N(µ,σ) N(0,1)
de probabilité la fonction φ suivante:
Pr(X ≤ µ+x) Pr(Z ≤ x)
1  x² 
φ ( x) = exp −  = F(µ+x)
1 – Pr(X ≤ µ+x)
= Φ(x)
1 – Pr(X ≤ x)
2π  2 = 1 – F(µ+x) = 1 – Φ(x)

La fonction de répartition correspondante s'écrit:


x x
1  t² 
Φ ( x) = ∫ φ (t )dt = ∫ exp  − dt µ µ+x
2π −∞  2  0 x
−∞ Avec la loi N(0,1), on retrouvera de plus la propriété de symétrie
(non représentée ici) sous la forme particulière Φ(-x) = 1 – Φ(x)
S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance

Lois continues: la loi du Khi-deux Loi du Khi-deux: répartition et moments


Soit p un entier positif. Une VA X suit la loi du Khi-deux à p La fonction de répartition de la loi du Khi-deux ne s'explicite pas.
degrés de liberté, notée χ²(p), si X est continue et admet pour Cependant, il existe des tables statistiques que l'on peut utiliser
fonction de densité: pour des applications et exercices.
 1
p
 x  2 −1
 p exp −  x ∀x ≥ 0 Les deux premiers moments de la distribution du chi-deux (son

f ( x ) =  2 Γ 
2
p   2 espérance et sa variance) sont égales respectivement à:
 2
0 ∀x < 0 E(X) = p et Var(X) = 2p

où Γ représente la fonction gamma d'Euler: Où X est une VA distribuée selon la loi du Khi-deux χ²(p).
+∞

∫x
r −1
Γ( r ) = exp(− x)dx Attention, contrairement à la loi Normale, la loi du Khi-deux
0 n'est pas symétrique!

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance


Lois continues: la loi de Student Loi de Student: propriétés et moment
Soit n un entier positif. Une VA X suit la loi de Student à n Tout comme la loi normale, la loi de Student est symétrique. La
degrés de liberté, notée St(n), si X est une variable continue et représentation graphique de sa densité ressemble d'ailleurs à
admet pour fonction de densité: celle de la loi normale centrée réduite, avec un étalement un
 n +1 peu plus fort.
Γ 
f ( x) =
1  2  1
, ∀x réel L'espérance d'une VA X suivant une loi de Student St(n) n'est
n +1
nπ Γ n  définie que pour n ≥ 2:
  1 + x ²  2
2   E(X) = 0
 n
La variance d'une VA X suivant une loi de Student St(n) n'est
Comme avec le Khi-deux, la fonction de répartition ne s'explicite
définie que pour n ≥ 3:
pas, mais elle peut être approchée à l'aide de tables statistiques
(éventuellement intégrées dans des logiciels). Var(X) = n / (n – 2)

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance

Lois continues: la loi de Fisher Loi de Fisher: propriétés et moments


Soit n1 et n2 deux entiers positifs. Une VA X suit la loi de Fisher La représentation graphique de la loi de Fisher ressemble à une
à n1 et n2 degrés de liberté, F(n1, n2), si X est une variable "courbe en cloche" avec une asymétrie à droite plus ou moins
continue et admet pour fonction de densité: importante en fonction des valeurs de n1 et n2.
  n1 + n2  n1 − 2
 Γ 2   n  2
n1
L'espérance d'une VA X suivant une loi de Fisher F(n1, n2) n'est
    1 2
x
  n1 + n2
∀x ≥ 0 définie que pour n2 ≥ 3:
f ( x) =  Γ n1 Γ n2   n2   n  2
 2  2 1 + 1 x  E(X) = n2 / (n2 – 2)
  n2 
0 ∀x < 0
La variance d'une VA X suivant une loi de Fisher F(n1, n2) n'est
Comme pour le Khi-deux et la loi de Student, la fonction de définie que pour n2 ≥ 5:
répartition de la loi de Fisher ne s'explicite pas, mais elle peut 2n2 ²(n1 + n2 − 2)
être approchée à l'aide de tables statistiques. Var(X) =
n1 (n2 − 2)²(n2 − 4)
S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance
Loi normale, Khi-deux, Student et Fisher 2. Convergence et approximation
Les lois Normale, du khi-deux, de Student et de Fisher sont En statistique, la notion de convergence prend généralement
liées par les relations suivantes: l'une des formes suivantes:

 Soient U et X deux VA indépendantes.  Convergence en probabilité

U  Convergence en loi
Si U~N(0,1) et X~χ²(n), alors T = ~ St(n)
X n  Convergence "presque sûre" (non développée ici)

 Convergence en moyenne d'ordre p (non développée ici)


 Soient X1 et X2 deux VA indépendantes.

X1 n La convergence permet d'approcher certaines lois de probabilité


Si X1~χ²(n) et X2~χ²(p), alors ~ F(n; p)
X2 p par d'autres. Ces approximations (dont certaines ont déjà été
abordées en 1.) sont résumés en fin de chapitre.

S. Robin M2 GGRC - Statistiques S. Robin L3 Gestion et Finance

Convergence en probabilité Convergence en loi


Définition: Une suite de variables aléatoires X1, …, Xn converge La convergence en probabilité entraîne la convergence en loi.
en probabilité vers la constante a si, ∀ε et ∀η "petits", ∃ n0 tel
que n > n0 ⇒ Pr(|Xn - a|>ε)<η Définition : La suite de VA X1, …, Xn converge en loi vers la VA
X de fonction de répartition F si, en tout point où F est continue,
Interprétation de l'implication : l'évènement "Xn diffère de a" la suite F1, …, Fn des fonctions de répartition de X1, …, Xn
devient de moins en moins probable à mesure que n augmente. converge vers F.
P L
On note "X converge en probabilité vers a" : X→ a On note "la suite X1, …, Xn converge en loi vers X" : Xn→ X

La convergence en probabilité vers la VA X est définie comme Pour des VA discrètes X1, …, Xn, la convergence en loi vers une
la convergence de la suite X1-X, …, Xn-X vers 0. VA discrète X s'écrit : Pr(Xn = x) = Pr(X = x). On établit ainsi la
convergence (vue en 1.1) de la Binomiale vers la loi de Poisson.

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance


Théorème de Slutsky Convergence: applications (1)
Théorème: 1. Convergence de la loi Binomiale vers la loi Normale centrée
réduite:
Si la suite de VA X1, …, Xn converge en loi vers la VA X et si la
suite de VA Y1, …, Yn converge en probabilité vers une Soit X1, …, Xn une suite de VA binomiales de loi B(n; p), on a :
constante a, alors:
X n − np L
L → N ( 0,1)
 XnYn → Xa np
L
 Xn / Yn → X / a (pour tout a ≠ 0)

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance

Convergence: applications (2) Convergence: applications (3)


2. Convergence de la loi de Poisson vers la loi Normale centrée 3. Théorème Central-Limite:
réduite:
Soit X1, .., Xn une suite de VA de même loi inconnue d'espérance
Soit (Xλ) une famille de VA binomiales de loi P (λ), on a, si λ µ et d'écart-type σ. Alors :
tend vers l'infini :
X −λ 1  X 1 + ... + X n − nµ  n X i − µ L
=∑
L
→ N (0,1)  → N (0,1)
n σ  i =1 σ n
λ
En pratique, on considère que λ tend vers l'infini quand λ est On rencontrera ce théorème sous une autre forme dans le
supérieur au plus grand λ de la table de la loi de Poisson. On Chapitre 3 sur l'échantillonnage.
aura une bonne convergence à partir d'un λ égal à 18 ou 20.

S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance


Autres applications de la convergence Approximations - lois discrètes
 Convergence de la loi de Student vers la loi normale centrée Loi de probabilité : Peut être approchée par :
réduite :
 Loi Binomiale Loi de Poisson P (np)
Soit T une VA suivant une loi de Student St(n). Si n tend vers X ~B(n, p) si n "grand" et p "petit" (par exemple,
l'infini (en pratique, si n > 100), on a T 
→
L
U, où U~N(0,1). n > 30 et p < 0,1)
 Convergence de la loi du Khi-deux vers la loi normale :
Loi Normale N(np,√np(1-p))
si n "grand" et p "petit" (par exemple,
Soit X une VA suivant une loi du khi-deux à p degrés de liberté. tels que np >15)
Si p "grand" (en pratique, p > 100), alors :
X−p L  Loi de Poisson Loi Normale N(λ,√λ)

→ N (0,1) c'est-à-dire X 
→
L
N ( p, 2 p ) X ~P (λ) avec λ "grand" (par exemple, λ >15)
2p
S. Robin L3 Gestion et Finance S. Robin L3 Gestion et Finance

Approximations - lois continues


Loi de probabilité : Peut être approchée par :

 Loi de Student Loi Normale centrée réduite N(0,1)


X ~St(n) si n "grand" (n > 30)

 Loi du Khi-deux Loi Normale N(p,√2p)


X ~χ²(p) avec p "grand" (p >100)

Approximations plus précises:


2 X ~ N ( 2 p − 1,1) (Fisher)

X  2 2  (Wilson-
3 ~ N 1 − ,  Hilferty)
p  9p 9p 
S. Robin L3 Gestion et Finance

Vous aimerez peut-être aussi