Académique Documents
Professionnel Documents
Culture Documents
de
Probabilités & Statistiques
Laurent Tournier
Janvier 2019
Plan du cours
1 Espaces de probabilité.
Définitions
Équiprobabilité
Probabilités conditionnelles
La fève était à l’origine une fève (un haricot sec). On utilise maintenant
plutôt un petit objet, généralement en porcelaine, qui peut se collectionner.
Espaces de probabilités
Pour A ⊂ Ω, P(A) est la « proportion de chance » que A se réalise.
Intuition : si on répète l’expérience, P(A) est la proportion des fois où A se
réalise (cf. Loi des grands nombres).
Définition
Une probabilité sur Ω est une application P : P(Ω) → [0,1], définie
sur les événements, telle que
1 P(Ω) = 1
2 pour
[toutesuite (An )n∈N d’événements disjoints deux à deux,
X
P An = P(An ).
n∈N n∈N
Pour simplifier, on suppose ici que l’on peut définir la probabilité tous les
événements. En vérité, ce n’est pas possible dans certains cas, mais cela ne
posera pas de problème pratique.
Espaces de probabilités
Propriétés
a) P(∅) = 0
b) Pour tout événement A, P(Ac ) = 1 − P(A)
c) Si A ⊂ B, alors P(A) ≤ P(B)
d) Pour tous événements A et B, P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
Espaces de probabilités
Propriétés
a) P(∅) = 0
b) Pour tout événement A, P(Ac ) = 1 − P(A)
c) Si A ⊂ B, alors P(A) ≤ P(B)
d) Pour tous événements A et B, P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
(∗) Pour une suite infinie (An )n≥0 , on peut poser C0 = A0 puis
Cn = An \ (A1 ∪ · · · ∪ An−1 ), alorsSC0 ,C1 , . . .S
sont disjoints,
C0 ∪ · · · ∪ Cn = A0 ∪ · · · ∪ An et n≥0 Cn = n≥0 An . Alors
[ [ X X
N
P( An ) = P( Cn ) = P(Cn ) = lim P(Cn ) = lim P(A1 ∪ · · · ∪ An )
N N
n≥0 n≥0 n≥0 n=0
et X
P(A1 ∪ · · · ∪ An ) ≤ P(A1 ) + · · · + P(An ) −→ P(Ak )
n→∞
k≥0
Distribution uniforme de probabilité
On suppose que Ω est fini, avec Card Ω = n :
Ω = {ω1 ,ω2 , . . . ,ωn }.
Si ces résultats jouent des rôles symétriques, il est naturel de considérer la
probabilité uniforme sur Ω, telle que
1
P({ω1 }) = · · · = P({ωn }) = .
n
Définition
La probabilité uniforme sur Ω (ou distribution équiprobable) est la
probabilité P définie par : pour tout A = {ωi1 ,ωi2 , . . . ,ωik } ⊂ Ω,
k Card A
P(A) = = .
n Card Ω
Autrement dit,
nombre de cas favorables
P(événement) = .
nombre de cas possibles
Rappels de dénombrement :
Calculer des probabilités dans ce cas se ramène donc à dénombrer (compter)
les éléments d’un ensemble.
Un n-uplet (x1 , . . . ,xn ) est une suite de n éléments (l’ordre est important).
Le nombre de n-uplets (x1 , . . . ,xn ) tels que x1 ∈ E1 ,..., xn ∈ En , est
n! = 1 × 2 × 3 × · · · × (n − 2) × (n − 1) × n.
n!
Akn = n(n − 1) · · · (n − k + 1) = .
(n − k)!
On note N = 365, on suppose les dates équiprobables (et qu’il n’y a pas de
jumeaux, ni d’années bissextiles).
On considère ainsi l’ensemble des n-uplets dans {1, . . . ,N} :
Ω = {(j1 , . . . ,jn ) | j1 , . . . ,jn ∈ {1, . . . ,N}} = {1, . . . ,N}n
Exemple : paradoxe des anniversaires
Dans un groupe de n étudiants, quelle est la probabilité que 2 (au moins)
aient leur anniversaire le même jour ?
On note N = 365, on suppose les dates équiprobables (et qu’il n’y a pas de
jumeaux, ni d’années bissextiles).
On considère ainsi l’ensemble des n-uplets dans {1, . . . ,N} :
Ω = {(j1 , . . . ,jn ) | j1 , . . . ,jn ∈ {1, . . . ,N}} = {1, . . . ,N}n
avec P uniforme, et on cherche P(A) où
A = {2 étudiants sont nés le même jour} = {(j1 , . . . ,jn ) ∈ Ω | ∃k 6= l, jk = jl }.
Exemple : paradoxe des anniversaires
Dans un groupe de n étudiants, quelle est la probabilité que 2 (au moins)
aient leur anniversaire le même jour ?
On note N = 365, on suppose les dates équiprobables (et qu’il n’y a pas de
jumeaux, ni d’années bissextiles).
On considère ainsi l’ensemble des n-uplets dans {1, . . . ,N} :
Ω = {(j1 , . . . ,jn ) | j1 , . . . ,jn ∈ {1, . . . ,N}} = {1, . . . ,N}n
avec P uniforme, et on cherche P(A) où
A = {2 étudiants sont nés le même jour} = {(j1 , . . . ,jn ) ∈ Ω | ∃k 6= l, jk = jl }.
Alors
Ac = {les étudiants sont nés des jours 6=} = {(j1 , . . . ,jn ) ∈ Ω | ∀k 6= l,jk 6= jl }
Exemple : paradoxe des anniversaires
Dans un groupe de n étudiants, quelle est la probabilité que 2 (au moins)
aient leur anniversaire le même jour ?
On note N = 365, on suppose les dates équiprobables (et qu’il n’y a pas de
jumeaux, ni d’années bissextiles).
On considère ainsi l’ensemble des n-uplets dans {1, . . . ,N} :
Ω = {(j1 , . . . ,jn ) | j1 , . . . ,jn ∈ {1, . . . ,N}} = {1, . . . ,N}n
avec P uniforme, et on cherche P(A) où
A = {2 étudiants sont nés le même jour} = {(j1 , . . . ,jn ) ∈ Ω | ∃k 6= l, jk = jl }.
Alors
Ac = {les étudiants sont nés des jours 6=} = {(j1 , . . . ,jn ) ∈ Ω | ∀k 6= l,jk 6= jl }
est l’ensemble des arrangements de n éléments parmi N, donc
Card(Ac ) An N(N − 1) · · · (N − n + 1)
P(A) = 1−P(Ac ) = 1− = 1− Nn = 1− .
Card(Ω) N Nn
Exemple : paradoxe des anniversaires
Dans un groupe de n étudiants, quelle est la probabilité que 2 (au moins)
aient leur anniversaire le même jour ?
On note N = 365, on suppose les dates équiprobables (et qu’il n’y a pas de
jumeaux, ni d’années bissextiles).
On considère ainsi l’ensemble des n-uplets dans {1, . . . ,N} :
Ω = {(j1 , . . . ,jn ) | j1 , . . . ,jn ∈ {1, . . . ,N}} = {1, . . . ,N}n
avec P uniforme, et on cherche P(A) où
A = {2 étudiants sont nés le même jour} = {(j1 , . . . ,jn ) ∈ Ω | ∃k 6= l, jk = jl }.
Alors
Ac = {les étudiants sont nés des jours 6=} = {(j1 , . . . ,jn ) ∈ Ω | ∀k 6= l,jk 6= jl }
est l’ensemble des arrangements de n éléments parmi N, donc
Card(Ac ) An N(N − 1) · · · (N − n + 1)
P(A) = 1−P(Ac ) = 1− = 1− Nn = 1− .
Card(Ω) N Nn
Exemple : Pour n = 23, P(A) ' 0,5. Pour n = 57, P(A) ' 0,99.
Exemple : paradoxe des anniversaires
Dans un groupe de n étudiants, quelle est la probabilité que 2 (au moins)
aient leur anniversaire le même jour ?
On note N = 365, on suppose les dates équiprobables (et qu’il n’y a pas de
jumeaux, ni d’années bissextiles).
On considère ainsi l’ensemble des n-uplets dans {1, . . . ,N} :
Ω = {(j1 , . . . ,jn ) | j1 , . . . ,jn ∈ {1, . . . ,N}} = {1, . . . ,N}n
avec P uniforme, et on cherche P(A) où
A = {2 étudiants sont nés le même jour} = {(j1 , . . . ,jn ) ∈ Ω | ∃k 6= l, jk = jl }.
Alors
Ac = {les étudiants sont nés des jours 6=} = {(j1 , . . . ,jn ) ∈ Ω | ∀k 6= l,jk 6= jl }
est l’ensemble des arrangements de n éléments parmi N, donc
Card(Ac ) An N(N − 1) · · · (N − n + 1)
P(A) = 1−P(Ac ) = 1− = 1− Nn = 1− .
Card(Ω) N Nn
Exemple : Pour n = 23, P(A) ' 0,5. Pour n = 57, P(A) ' 0,99.
+ difficile : Si n ≥ 88, P(3 étudiants ont leur anniversaire ensemble) ≥ 0,5.
Quelles probabilités pour le bus et la galette ?
Pour l’attente du bus qui passe toutes les T minutes, Ω = [0,T]
- le bus a autant de chances d’arriver dans [t,t + δ] que dans [t0 ,t0 + δ].
- le bus a 2 fois plus de chances d’arriver dans [t,t + 2δ] que dans [t,t + δ].
la probabilité que le temps d’attente soit dans un intervalle I est
proportionnelle à sa longueur : (« loi uniforme sur [0,T] »)
longueur(I)
P(I) = .
T
aire(A) aire(A)
P(A) = = .
aire(D(0,R)) πR2
Probabilités conditionnelles
Définition
Soit B un événement tel que P(B) > 0. Pour A ⊂ Ω, on définit
P(A ∩ B)
P(A|B) = .
P(B)
P(A|B) = P(A)
Définition
Une famille (Ai )i d’événements est indépendante si pour toute
sous-famille finie Ai1 , . . . ,Aik on a
Définition
Une famille (Ai )i d’événements est indépendante si pour toute
sous-famille finie Ai1 , . . . ,Aik on a
Preuve :
P(Ac ∩ Bc ) = P((A ∪ B)c ) = 1 − P(A ∪ B) = 1 − P(A) − P(B) + P(A ∩ B)
= 1 − P(A) − P(B) + P(A)P(B) = (1 − P(A))(1 − P(B)) = P(Ac )P(Bc )
Par récurrence, on peut obtenir :
Proposition
Si A1 , . . . ,An sont indépendants, et B1 , . . . ,Bn sont tels que, pour tout i,
Bi = Ai ou Bi = Aci , alors B1 , . . . ,Bn sont indépendants.
On note 1 pour Pile et 0 pour Face. Notons Ai = {le tirage i est pile}
→ chaque réalisation ω est une suite de 0 et de 1 de longueur n : Ω = {0,1}n .
A1 , . . . ,An sont indépendants, donc par exemple (ici, n = 4)
P({(1,0,1,1)}) = P(A1 ∩ Ac2 ∩ A3 ∩ A4 ) = p × (1 − p) × p × p = p3 (1 − p)
et, si la suite ω = (ε1 , . . . ,εn ) contient k fois 1 (et donc n − k fois 0),
P({ω}) = pk (1 − p)n−k .
Soit 0 ≤ k ≤ n. On définit l’événement
Bk = {Exactement k pièces tombent sur Pile}.
k n−k
On vient de voir que, pour toute suite ω ∈ Bk , P({ω}) = p (1 − p) . Par
n
ailleurs, le nombre de telles suites est Card Bk = k . On en déduit
n k
P(Bk ) = p (1 − p)n−k
k
Loi binomiale
En notant X le nombre de fois où Pile est apparu parmi les n lancers, X est
une variable aléatoire qui suit la loi binomiale B(n,p).
Plan du cours
1 Espaces de probabilité.
X
ω
R X(ω)
Ω
Variables aléatoires
Définition
Une variable aléatoire est une application X : Ω → R.
La loi de X est la probabilité PX sur R définie par :
X
{X∈B} ω
R X(ω)
Ω B
Variables aléatoires – Remarques
On précise parfois variable aléatoire réelle, ou à valeurs dans R.
S’il existe un réel c tel que P(X = c) = 1, alors X est constante égale à
c et n’est donc pas “aléatoire” au sens usuel (mais c’est un cas
particulier de variable aléatoire).
En général, la valeur de X(ω) dépend de la réalisation ω, et la
distribution de ces valeurs sur R est donnée par la loi de X.
Notation : On a noté {X ∈ B} l’événement formé des éventualités ω
pour lesquelles X(ω) ∈ B, et on abrège
P(X ∈ B) = P({X ∈ B}) = P({ω ∈ Ω | X(ω) ∈ B}).
Exemple le plus simple :
Définition
Si A est un événement, on introduit la variable aléatoire fonction
indicatrice de A, notée 1A , qui indique si l’événement A est réalisé :
1 si ω ∈ A
pour tout ω ∈ Ω, 1A (ω) =
0 si ω ∈
/ A.
Variables aléatoires – Exemples
Lancer de deux dés, Ω = {1, . . . ,6}2 = {(x1 ,x2 ) | x1 ,x2 ∈ {1, . . . ,6}}
Valeurs des dés : X1 ((x1 ,x2 )) = x1 et X2 ((x1 ,x2 )) = x2
(à valeurs dans {1, . . . ,6})
Somme des résultats : X = X1 + X2 , c.-à-d. X((x1 ,x2 )) = x1 + x2
(à valeurs dans {2, . . . ,12})
Placement d’une fève circulaire dans une galette, Ω = D(0,r) ⊂ R2
Coordonnées du point : X((x,y)) = x, Y((x,y)) = y
(à valeurs dans [−r,r]) √
Distance au centre : R = X 2 + Y 2
(à valeurs dans [0,r])
On prend successivement les parts d’une galette (coupée en 8)
Nombre de parts à prendre jusqu’à avoir la fève : NA
(à valeurs dans {1, . . . ,8})
Chaque jour, on prend une part d’une galette différente (coupée en 8)
Nombre de parts à prendre jusqu’à avoir la fève : NB
(à valeurs dans {1,2, . . .} = N∗ )
Nombre de fèves obtenues en n jours : Sn
(à valeurs dans {0,1,2, . . . ,n})
Lois discrètes
Définition
Une variable aléatoire X est dite discrète si l’ensemble X(Ω) des
valeurs qu’elle prend est dénombrable.
(C’est-à-dire que l’on peut trouver une suite qui énumère tous les éléments
de X(Ω) : par ex., si X(Ω) est un ensemble fini, N, Z ou Q, mais pas
l’intervalle [0,1] ni R).
Si X est discrète, alors pour tout B ⊂ X(Ω), on a B = {bn | n = 1,2, . . . ,N}
ou B = {bn | n = 1,2, . . .} avec des bn distincts, et
[
{X ∈ B} = {X = bn }
n
or ces événements sont disjoints et forment une suite, d’où
X X
PX (B) = P(X ∈ B) = P(X = bn ) = P(X = x).
n x∈B
ω
A
Ω
Espace de probabilités : (Ω,P)
Ω, ensemble des résultats possibles d’une expérience aléatoire
ω ∈ Ω, une réalisation de l’expérience
A ⊂ Ω, un événement relatif à l’expérience (peut être réalisé ou non)
P(A) ∈ [0,1], probabilité de l’événement A (d’où P : P(Ω) → [0,1])
Espace de probabilités – Rappel
B A
Ω
Espace de probabilités : (Ω,P)
Ω, ensemble des résultats possibles d’une expérience aléatoire
ω ∈ Ω, une réalisation de l’expérience
A ⊂ Ω, un événement relatif à l’expérience (peut être réalisé ou non)
P(A) ∈ [0,1], probabilité de l’événement A (d’où P : P(Ω) → [0,1])
telle que P(Ω) = 1 et, si A et B sont disjoints, P(A ∪ B) = P(A) + P(B).
S P
Et, si on a une suite (An )n d’événements disjoints, P( n An ) = n P(An ).
Variables aléatoires – Rappel
Définition
Une variable aléatoire est une application X : Ω → R.
X
ω
R X(ω)
Ω
Variables aléatoires – Rappel
Définition
Une variable aléatoire est une application X : Ω → R.
La loi de X est la probabilité PX sur R définie par :
X
{X∈B} ω
R X(ω)
Ω B
Lois discrètes – Rappel
Définition
Une variable aléatoire X est dite discrète si on peut énumérer (lister)
l’ensemble X(Ω) des valeurs qu’elle prend.
2t
la fonction f (t) = 1[0,r] (t) représente la densité de probabilité de R.
r2
Lois continues
Définition
Une variable aléatoire X est dite continue ou à densité s’il existe une
fonction (intégrable) fX : R → [0, + ∞[ telle que, pour tout B ⊂ R,
Z
PX (B) = P(X ∈ B) = fX (x)dx.
B
a b
Z b
Si X a pour densité fX , pour tous a ≤ b, P(a ≤ X ≤ b) = fX (x)dx
a
Lois continues
Définition
Une variable aléatoire X est dite continue ou à densité s’il existe une
fonction (intégrable) fX : R → [0, + ∞[ telle que, pour tout B ⊂ R,
Z
PX (B) = P(X ∈ B) = fX (x)dx.
B
P(X ∈ [x − δ2 , x + δ2 ])
−→ fX (x).
δ δ→0+
Interprétation intuitive de la densité
P(X ∈ [x − δ2 , x + δ2 ])
−→ fX (x).
δ δ→0+
Soit ε > 0. Pour un certain δ > 0, on a |fX (t) − fX (x)| < ε dès que
|t − x| < δ, d’où
δ δ Z x+ δ2
P X ∈ x − , x + − δfX (x) = fX (t)dt − δfX (x)
2 2 x− δ2
Z x+ δ2
Z x+ δ2
= fX (t) − fX (x) dt ≤ |fX (t) − fX (x)|dt ≤ δε.
x− δ2 x− δ2
Densités classiques
Soit a < b. La loi uniforme sur [a,b] (notée U([a,b])) est la loi de densité
1 (b − a)−1 si a ≤ x ≤ b
f (x) = 1[a,b] (x) =
b−a 0 si x ∈
/ [a,b].
Une variable aléatoire X de loi U([a,b]) est donc à valeurs dans [a,b].
La loi exponentielle est une loi « sans mémoire ». En effet, pour tous s,t ≥ 0,
Supposons que X suit la loi uniforme sur [0,1]. Posons Y = b5Xc (partie
entière). Quelle est la loi de Y ?
Y est à valeurs dans {0,1,2,3,4} : elle est donc discrète
pour k = 0,1,2,3,4, P(Y = k) = P(k ≤ 5X < k + 1)
Z k+1
k k+1 5 1
= P( ≤ X < )= 1[0,1] dx =
5 5 k
5
5
Donc Y suit la loi uniforme sur {0,1,2,3,4}.
Attention
Définition
Soit X une variable aléatoire. La fonction de répartition de X est la
fonction FX : R → R définie par
Définition
Soit X une variable aléatoire. La fonction de répartition de X est la
fonction FX : R → R définie par
Définition
Soit X une variable aléatoire. La fonction de répartition de X est la
fonction FX : R → R définie par
Proposition
a) La fonction de répartition FX est une fonction croissante,
Proposition
Si X est une variable aléatoire discrète, FX est une fonction constante
par morceaux, dont les sauts se situent aux points de X(Ω), et le saut
en x ∈ X(Ω) a pour hauteur P(X = x).
0 1
Fonction de répartition – Cas discret
Proposition
Si X est une variable aléatoire discrète, FX est une fonction constante
par morceaux, dont les sauts se situent aux points de X(Ω), et le saut
en x ∈ X(Ω) a pour hauteur P(X = x).
0 1 2 3 4
Fonction de répartition – Cas à densité
Proposition
Si X est une variable aléatoire de densité fX , on a
Z x
pour tout x ∈ R, FX (x) = fX (t)dt
−∞
0
Fonction de répartition – Cas à densité
Proposition
Si X est une variable aléatoire de densité fX , on a
Z x
pour tout x ∈ R, FX (x) = fX (t)dt
−∞
a 0 b
Fonction de répartition – Cas à densité
Proposition
Si X est une variable aléatoire de densité fX , on a
Z x
pour tout x ∈ R, FX (x) = fX (t)dt
−∞
1/2
0 1/2
Application : Calcul de la loi de Y = ϕ(X)
Soit X une variable aléatoire de loi uniforme sur {−1,0,1}. On pose Y = |X|.
Définition
L’espérance d’une variable aléatoire X, notée E[X], est la moyenne
de ses valeurs, pondéréesXpar leurs probabilités.
Si X est discrète, E[X] = xP(X = x).
x∈X(Ω)
Z
Si X est continue, de densité fX , E[X] = xfX (x)dx.
R
Attention. L’espérance n’est pas toujours définie. Il faut pour cela
que la série ou l’intégrale ci-dessus converge absolument.
Intérêt, interprétation :
• E[X] donne une indication de l’ordre de grandeur typique de X.
• E[X] est souvent plus simple à calculer (et à interpréter) que la loi de X.
• E[X] correspond au “prix équitable” à faire payer pour jouer à un jeu de
hasard où le gain est X (dans l’idée que l’on joue un grand nombre de fois)
→ prix d’assurances, d’actifs financiers,...
• E[X] est la limite, quand n → ∞, de la moyenne 1n (X1 + · · · + Xn ) de n
réalisations de X obtenues en répétant l’expérience... On y reviendra.
Espérance
Définition
L’espérance d’une variable aléatoire X, notée E[X], est la moyenne
de ses valeurs, pondéréesXpar leurs probabilités.
Si X est discrète, E[X] = xP(X = x).
x∈X(Ω)
Z
Si X est continue, de densité fX , E[X] = xfX (x)dx.
R
Attention. L’espérance n’est pas toujours définie. Il faut pour cela
que la série ou l’intégrale ci-dessus converge absolument.
en vérifiant que dans les cas discret et à densité, cela redonne la définition.
Une meilleure approche R est en fait de définir
R une intégrale généralisée pour
pouvoir avoir E[X] = Ω X(ω)dP(ω) = R x dPX (x)
Espérance – Exemples discrets
Si X suit la loi de Bernoulli B(p),
X est à valeurs dans {0,1} et P(X = 1) = p, P(X = 0) = 1 − p, d’où
E[X] = 1 · p + 0 · (1 − p) = p.
Si X suit la loi uniforme sur {1,2, . . . ,n},
X est à valeurs dans {1, . . . ,n} et P(X = 1) = · · · = P(X = n) = 1n , d’où
1 1 1 1 + 2 + ··· + n n+1
E[X] = 1 · + 2 · + ··· + n · = = .
n n n n 2
Si X suit la loi géométrique G(p),
X est à valeurs dans N∗ = {1,2, . . .} et P(X = k) = (1 − p)k−1 p, d’où
∞
X 1 p 1
E[X] = k · (1 − p)k−1 p = p = 2 =
(1 − (1 − p))2 p p
k=1
d X k d 1
∞
X ∞
1
car kxk−1 = x = = pour −1 < x < 1.
dx dx 1 − x (1 − x)2
k=1 k=0
Espérance – Exemples à densité
X = 1A1 + · · · + 1AN
et
X = 1A1 + · · · + 1AN
et
h i
X 1 1 2 1 3 1 23
Si X suit la loi uniforme sur {1,2,3}, E 1+X = 1+1 3 + 1+2 3 + 1+3 3 = 36
Proposition
Si, pour tout n, Sn suit la loi B(n,pn ), et npn −→ λ, alors
n→∞
λk
pour tout k ∈ N, P(Sn = k) −→ e−λ .
n→∞ k!
Dans la pratique, on peut approcher la loi B(n,p) par la loi P(np) lorsque
n ≥ 50 et p ≤ 0,1 (erreur inférieure à 5 % dans les calculs de probabilités).
Parenthèse : loi de Poisson P(λ)
Soit λ > 0. Une variable aléatoire X suit la loi de Poisson de paramètre λ
(notée P(λ)) si X est à valeurs dans N = {0,1,2, . . .} et
λk
pour tout k ∈ N, P(X = k) = e−k .
k!
Proposition
Si, pour tout n, Sn suit la loi B(n,pn ), et npn −→ λ, alors
n→∞
λk
pour tout k ∈ N, P(Sn = k) −→ e−λ .
n→∞ k!
Dans la pratique, on peut approcher la loi B(n,p) par la loi P(np) lorsque
n ≥ 50 et p ≤ 0,1 (erreur inférieure à 5 % dans les calculs de probabilités).
Ex. Une usine produit 500 pièces par jour, dont 1 % sont défaillantes. Le
nombre N de pièces défaillantes suit la loi B(n,p) avec n = 500, p = 0,01.
Le nombre moyen d’erreurs est λ = E[N] = np = 5.
P7 k
Alors, N suit approx. la loi P(5), donc P(N ≤ 7) ' e−5 k=0 5k! ' 0,866.
P7
En vérité, P(N ≤ 7) = k=0 500 k
k 0,01 · 0,99
500−k
' 0,868.
Variance
Définition
Soit X une variable aléatoire. La variance de X est l’espérance des
carrés des écarts de X à sa moyenne :
h 2 i
Var(X) = E X − E[X] ≥ 0.
p
L’écart type de X est σ(X) = Var(X).
Attention. La variance n’est pas toujours définie. Il faut que
l’espérance E[X] soit définie et l’espérance ci-dessus aussi.
→ Ceci revient à demander à ce que E[X 2 ] soit définie.
Propriétés
Pour toutes variables aléatoires X et Y et toute constante a,
1 Var(X) = E[X 2 ] − E[X]2
2 Var(aX) = a2 Var(X)
3 Var(X + a) = Var(X)
4 Var(X + Y) = Var(X) + 2 Cov(X,Y) + Var(Y), où la covariance est
définie par
h i
Cov(X,Y) = E X − E[X] Y − E[Y] = E[XY] − E[X]E[Y].
X
{X∈B} ω
R X(ω)
Ω B
Rappel – Espérance, variance
Définition
L’espérance d’une variable aléatoire X, notée E[X], est la moyenne
de ses valeurs, pondéréesXpar leurs probabilités.
Si X est discrète, E[X] = xP(X = x).
x∈X(Ω)
Z
Si X est continue, de densité fX , E[X] = xfX (x)dx.
R
Attention. L’espérance n’est pas toujours définie. Il faut pour cela
que la série ou l’intégrale ci-dessus converge absolument.
Intérêt, interprétation :
• E[X] est la moyenne des valeurs de X observées en “répétant l’expérience”
un grand nombre de fois (loi des grands nombres)
• E[X] donne une indication de l’ordre de grandeur typique de X.
• E[X] est souvent plus simple à calculer (et à interpréter) que la loi de X.
• E[X] correspond au “prix équitable” à faire payer pour jouer à un jeu de
hasard où le gain est X (dans l’idée que l’on joue un grand nombre de fois)
→ prix d’assurances, d’actifs financiers,...
bla
bla
Rappel – Espérance, variance
Définition
L’espérance d’une variable aléatoire X, notée E[X], est la moyenne
de ses valeurs, pondérées parXleurs probabilités. Pour ϕ : X(Ω) → R,
Si X est discrète, E[ϕ(X)] = ϕ(x)P(X = x).
x∈X(Ω)
Z
Si X est continue, de densité fX , E[ϕ(X)] = ϕ(x)fX (x)dx.
R
Attention. L’espérance n’est pas toujours définie. Il faut pour cela
que la série ou l’intégrale ci-dessus converge absolument.
Intérêt, interprétation :
• E[X] est la moyenne des valeurs de X observées en “répétant l’expérience”
un grand nombre de fois (loi des grands nombres)
• E[X] donne une indication de l’ordre de grandeur typique de X.
• E[X] est souvent plus simple à calculer (et à interpréter) que la loi de X.
• E[X] correspond au “prix équitable” à faire payer pour jouer à un jeu de
hasard où le gain est X (dans l’idée que l’on joue un grand nombre de fois)
→ prix d’assurances, d’actifs financiers,...
bla
bla
Variance
Définition
Soit X une variable aléatoire. La variance de X est l’espérance des
carrés des écarts de X à sa moyenne :
h 2 i
Var(X) = E X − E[X] ≥ 0.
p
L’écart type de X est σ(X) = Var(X).
Attention. La variance n’est pas toujours définie. Il faut que
l’espérance E[X] soit définie et l’espérance ci-dessus aussi.
→ Ceci revient à demander à ce que E[X 2 ] soit définie.
∞
X 2
k(k − 1)xk−2 =
(1 − x)3
k=2
Z ∞ Z ∞
−λx 2 2
2
E[X ] = 2
x λe dx = [x2 e−λx ]∞
x=0 + 2xe−λx dx = E[X] = 2
0 0 λ λ
d’où 1 2
2 1
Var(X) = 2
− = 2.
λ λ λ
Bilan
Étant donnée une variable aléatoire X, son espérance E[X] (si elle
existe) est la moyenne de ses valeurs, pondérées par leurs probabilités
d’apparition.
E[X] donne une idée de l’ordre de grandeur “typique” des réalisations
de X. C’est en particulier utile si on ne connaît pas la loi de X (on peut
en effet souvent calculer E[X] sans connaître la loi de X).
Afin de mesurer la dispersion des valeurs prises par X autour de E[X],
on peut calculer l’écart-type σ(X) de X.
Preuve
Inégalités
Proposition (Inégalité de Markov)
Soit X une variable aléatoire. Pour tout a > 0,
E |X|
P(|X| ≥ a) ≤ .
a
Plus généralement, pour tout a > 0 et r > 0,
E |X|r
P(|X| ≥ a) ≤ .
ar
Preuve
On définit une variable aléatoire Y par
(
a si |X| ≥ a,
Y=
0 sinon.
Preuve
On définit une variable aléatoire Y par
(
a si |X| ≥ a,
Y=
0 sinon.
Alors on a toujours |X| ≥ Y. Donc E |X| ≥ E[Y].
Inégalités
Proposition (Inégalité de Markov)
Soit X une variable aléatoire. Pour tout a > 0,
E |X|
P(|X| ≥ a) ≤ .
a
Plus généralement, pour tout a > 0 et r > 0,
E |X|r
P(|X| ≥ a) ≤ .
ar
Preuve
On définit une variable aléatoire Y par
(
a si |X| ≥ a,
Y=
0 sinon.
Alors on a toujours |X| ≥ Y. Donc E |X| ≥ E[Y]. D’où l’inégalité, car
Preuve
On définit une variable aléatoire Y par
(
a si |X| ≥ a,
Y=
0 sinon.
Alors on a toujours |X|r ≥ Y r . Donc E |X|r ≥ E[Y r ]. D’où l’inégalité, car
Définition
Des variables aléatoires X1 , . . . ,Xn sont indépendantes si, pour tous
B1 , . . . ,Bn ⊂ R,
X1 ((k,l)) = k et X2 ((k,l)) = l.
(le 1. est évident si Xi = 1Ai , et le cas général s’en déduit par approximation)
Par le 1) on déduit, si X1 , . . . ,Xn sont indépendantes,
E[f1 (X1 ) · · · fn (Xn )] = E[f1 (X1 )] · · · E[fn (Xn )].
Indépendance et espérance
Proposition
Si X1 , . . . ,Xn sont des variables aléatoires indépendantes, alors
1 si leurs espérances sont bien définies,
(le 1. est évident si Xi = 1Ai , et le cas général s’en déduit par approximation)
Par le 1) on déduit, si X1 , . . . ,Xn sont indépendantes,
E[f1 (X1 ) · · · fn (Xn )] = E[f1 (X1 )] · · · E[fn (Xn )].
1 +···+1
La proportion de “succès” Snn = A1 n An est proche de p avec grande
probabilité, si le nombre n est grand. C’est un cas particulier de la loi des
grands nombres.
Exemple : si n = 1000 et p = 12 , avec probab. ≥ 75%, Sn ∈ [0.468,0.531].
(On verra plus tard comment raffiner cet intervalle)
Théorème (« Loi ») des grands nombres
Théorème
Soit (Xn )n≥1 une suite de variables aléatoires indépendantes, et de
même loi, d’espérance m et de variance σ 2 . On définit la variable
aléatoires X n , appelée moyenne empirique, par
X1 + · · · + Xn
Xn = .
n
On a :
pour tout ε > 0, P m − ε ≤ X n ≤ m + ε −→ 1.
n→∞
Théorème (« Loi ») des grands nombres
Théorème
Soit (Xn )n≥1 une suite de variables aléatoires indépendantes, et de
même loi, d’espérance m et de variance σ 2 . On définit la variable
aléatoires X n , appelée moyenne empirique, par
X1 + · · · + Xn
Xn = .
n
On a :
pour tout ε > 0, P m − ε ≤ X n ≤ m + ε −→ 1.
n→∞
NB. Si (An )n≥1 est une suite d’événements indépendants et qui ont même
probabilité p (par exemple, dans une suite de tirages à Pile-ou-Face,
An = {le n-ième tirage est Pile}, et p = 12 ), alors en posant Xi = 1Ai , on a
1 A1 + · · · + 1 An nombre d’événements réalisés parmi A1 , . . . ,An
Xn = =
n n
donc X n est la fréquence de réalisation des événements A1 , . . . ,An .
Application : Simulation stochastique
1 (x−m)2
f : x 7→ f (x) = √ e− 2σ2 .
σ 2π
Cette fonction est appelée une gaussienne ou “courbe en cloche”.
σ σ
m
Loi normale N (m,σ 2 )
Proposition
“Toute combinaison linéaire de variables aléatoires gaussiennes
indépendantes est une variable aléatoire gaussienne.”
Plus précisément, si X1 , . . . ,Xn sont indépendantes et Xi ∼ N (mi ,σi2 )
alors, pour tous a1 , . . . ,an ∈ R,
X = a1 X1 + · · · + an Xn ∼ N (M,Σ2 ),
où
X
n X
n
M = E[X] = ai mi et Σ2 = Var(X) = a2i σi2 .
i=1 i=1
1 Espaces de probabilité.
Définition
Soit X,Y deux variables aléatoires. La loi du couple (X,Y) est la
probabilité P(X,Y) sur R2 qui vérifie :
Inversement, les lois marginales se déduisent des (p(X,Y) (x,y)) : pour tout
x ∈ X(Ω),
X X
pX (x) = P(X = x) = P(X = x,Y = y) = p(X,Y) (x,y),
y∈Y(Ω) y∈Y(Ω)
NB. X et Y sont indépendantes ssi p(X,Y) (x,y) = pX (x)pY (y) pour tous x,y.
Autre exemple discret
HH X
H
1 2 3 4
Z HH
0 1/16 1/16 1/16 1/16
1 1/16 1/8 1/8 1/16
2 1/16 1/16 1/16 1/16
3 1/16 0 0 1/16
Autre exemple discret
HH X
HH 1 2 3 4 Total (loi de Z)
Z H
0 1/16 1/16 1/16 1/16 1/4
1 1/16 1/8 1/8 1/16 3/8
2 1/16 1/16 1/16 1/16 1/4
3 1/16 0 0 1/16 1/8
Total (loi de X) 1/4 1/4 1/4 1/4 1
Cours 4
–
Lundi 25 février 2019
Rappel – Bilan
On a vu jusque-là comment étudier une seule variable aléatoire X :
X est une fonction Ω → R
son ensemble de valeurs possibles (ou support) est son image X(Ω)
sa loi est la donnée de PX (A) = P(X ∈ A), pour tout A ⊂ R
cas discret : équivaut à P(X = x) pour tous les x ∈ X(Ω)
cas à densité fX : équivaut à fX (x) pour tous les x ∈ R
on peut aussi se donner sa loi par sa fonction de répartition
E[φ(X)ψ(Y)] = E[φ(X)]E[ψ(Y)]
Et pour calculer, disons P(XY > 0) ou E[(X + Y)2 ], on se ramène aux calculs
ci-dessus. Cela a permis aussi de démontrer la loi des grands nombres.
Rappel – Bilan
On a aussi vu comment étudier plusieurs variables aléatoires X,Y
indépendantes :
X et Y sont, chacunes, des fonctions Ω → R
(X,Y) peut prendre toute valeur dans X(Ω) × Y(Ω) (pas d’influence)
On sait calculer des probabilités du type
E[φ(X)ψ(Y)] = E[φ(X)]E[ψ(Y)]
Et pour calculer, disons P(XY > 0) ou E[(X + Y)2 ], on se ramène aux calculs
ci-dessus. Cela a permis aussi de démontrer la loi des grands nombres.
Mais en général, les variables dans une expérience ne sont pas indépendantes
(ni de simples fonctions Y = f (X))... Pour étudier ces corrélations, on a
besoin d’étudier le couple (X,Y) et en particulier sa loi.
Loi du couple : des exemples discrets
HH X
HH 1 2 3 4 5 6 Total
Y H
1 1/36 1/36 1/36 1/36 1/36 1/36 1/6
2 1/36 1/36 1/36 1/36 1/36 1/36 1/6
3 1/36 1/36 1/36 1/36 1/36 1/36 1/6
4 1/36 1/36 1/36 1/36 1/36 1/36 1/6
5 1/36 1/36 1/36 1/36 1/36 1/36 1/6
6 1/36 1/36 1/36 1/36 1/36 1/36 1/6
Total 1/6 1/6 1/6 1/6 1/6 1/6 1
Loi du couple : des exemples discrets
HH X
H 1 2 3 4 5 6 Total
Y HH
1 1/36 1/36 1/36 1/36 1/36 1/36 1/6
2 1/36 1/36 1/36 1/36 1/36 1/36 1/6
3 1/36 1/36 1/36 1/36 1/36 1/36 1/6
4 1/36 1/36 1/36 1/36 1/36 1/36 1/6
5 1/36 1/36 1/36 1/36 1/36 1/36 1/6
6 1/36 1/36 1/36 1/36 1/36 1/36 1/6
Total 1/6 1/6 1/6 1/6 1/6 1/6 1
X,Y indépendantes
Loi du couple : des exemples discrets
HH X
HH 1 2 3 4 5 6 Total
Y H
1 1/6 0 0 0 0 0 1/6
2 0 1/6 0 0 0 0 1/6
3 0 0 1/6 0 0 0 1/6
4 0 0 0 1/6 0 0 1/6
5 0 0 0 0 1/6 0 1/6
6 0 0 0 0 0 1/6 1/6
Total 1/6 1/6 1/6 1/6 1/6 1/6 1
Loi du couple : des exemples discrets
HH X
H 1 2 3 4 5 6 Total
Y HH
1 1/6 0 0 0 0 0 1/6
2 0 1/6 0 0 0 0 1/6
3 0 0 1/6 0 0 0 1/6
4 0 0 0 1/6 0 0 1/6
5 0 0 0 0 1/6 0 1/6
6 0 0 0 0 0 1/6 1/6
Total 1/6 1/6 1/6 1/6 1/6 1/6 1
Y=X
Loi du couple : des exemples discrets
HH X
HH 1 2 3 4 5 6 Total
Y H
1 0 0 0 0 0 1/6 1/6
2 0 0 0 0 1/6 0 1/6
3 0 0 0 1/6 0 0 1/6
4 0 0 1/6 0 0 0 1/6
5 0 1/6 0 0 0 0 1/6
6 1/6 0 0 0 0 0 1/6
Total 1/6 1/6 1/6 1/6 1/6 1/6 1
Loi du couple : des exemples discrets
HH X
H 1 2 3 4 5 6 Total
Y HH
1 0 0 0 0 0 1/6 1/6
2 0 0 0 0 1/6 0 1/6
3 0 0 0 1/6 0 0 1/6
4 0 0 1/6 0 0 0 1/6
5 0 1/6 0 0 0 0 1/6
6 1/6 0 0 0 0 0 1/6
Total 1/6 1/6 1/6 1/6 1/6 1/6 1
Y =7−X
Loi du couple : des exemples discrets
HH X
HH 1 2 3 4 5 6 Total
Y H
1 1/12 1/12 0 0 0 0 1/6
2 1/12 1/12 0 0 0 0 1/6
3 0 0 1/6 0 0 0 1/6
4 0 0 0 1/6 0 0 1/6
5 0 0 0 0 1/6 0 1/6
6 0 0 0 0 0 1/6 1/6
Total 1/6 1/6 1/6 1/6 1/6 1/6 1
Loi du couple : des exemples discrets
HH X
H 1 2 3 4 5 6 Total
Y HH
1 1/12 1/12 0 0 0 0 1/6
2 1/12 1/12 0 0 0 0 1/6
3 0 0 1/6 0 0 0 1/6
4 0 0 0 1/6 0 0 1/6
5 0 0 0 0 1/6 0 1/6
6 0 0 0 0 0 1/6 1/6
Total 1/6 1/6 1/6 1/6 1/6 1/6 1
(
X si X ≥ 3,
X dé, Z ∈ {1,2} pièce indépendante ; Y =
Z si X ∈ {1,2}
Loi du couple : des exemples discrets
HH X
H 1 2 3 4 5 6 Total
Y HH
1 1/12 1/12 0 0 0 0 1/6
2 1/12 1/12 0 0 0 0 1/6
3 0 0 1/6 0 0 0 1/6
4 0 0 0 1/6 0 0 1/6
5 0 0 0 0 1/6 0 1/6
6 0 0 0 0 0 1/6 1/6
Total 1/6 1/6 1/6 1/61/6 1/6 1
(
X si X ≥ 3,
X dé, Z ∈ {1,2} pièce indépendante ; Y =
Z si X ∈ {1,2}
Les lois marginales se déduisent des (p(X,Y) (x,y)) : pour tout x ∈ X(Ω),
X X
pX (x) = P(X = x) = P(X = x,Y = y) = p(X,Y) (x,y),
y∈Y(Ω) y∈Y(Ω)
NB. X et Y sont indépendantes ssi p(X,Y) (x,y) = pX (x)pY (y) pour tous x,y.
Cas où P(X,Y) a une densité
f(X,Y) est appelée la densité du couple (X,Y). Alors f(X,Y) (x,y) ≥ 0 pour tous
x,y ∈ R, et Z Z
f(X,Y) (x,y)dx dy = 1.
R R
NB. En pratique,
R R le calcul d’intégrale double se ramène à deux intégrales
simples ( f(X,Y) (x,y)dx)dy, où les bornes peuvent dépendre du point y
si fX est continue en x.
De façon similaire,
Proposition
1 Si (X,Y) a pour densité f(X,Y) , alors X et Y ont des densités fX et
fY données par
Z Z
fX (x) = f(X,Y) (x,y)dy et fY (y) = f(X,Y) (x,y)dx.
R R
Par définition, la loi uniforme sur le disque D(0,r) est la loi d’un couple
(X,Y) de densité
( p
1
1 πr 2 si x2 + y2 ≤ r
f(X,Y) (x,y) = 2 1D(0,r) (x,y) = .
πr 0 sinon.
D’où la loi de X : la variable aléatoire X a pour densité
Z √2 2 √
Z r −x
1 r 2 − x2
= √ dy = 2 si −r < x < r
fX (x) = f(X,Y) (x,y)dy − r2 −x2 πr
2 πr2
R
= 0 sinon.
où D = {(u,v) ∈ R2 | 0 ≤ u ≤ v},
Z et C est un réel à déterminer.
Alors U a pour densité fU (u) = f (u,v)dv donc fU (u) = 0 si u < 0 et, si
R
u > 0, Z ∞
C −4u
fU (u) = C e−2u−2v dv = e ,
u 2
donc U suit la loi E(4) et C = 8.
Autre exemple
où D = {(u,v) ∈ R2 | 0 ≤ u ≤ v},
Z et C est un réel à déterminer.
Alors U a pour densité fU (u) = f (u,v)dv donc fU (u) = 0 si u < 0 et, si
R
u > 0, Z ∞
C −4u
fU (u) = C e−2u−2v dv = e ,
u 2
donc U suit la loi E(4) et C =
Z 8.
Et V a pour densité fV (v) = f (u,v)du donc fV (v) = 0 si v < 0 et, si v > 0,
R
Z v
fV (v) = 8 e−2u−2v du = 4(e−2v − e−4v ).
0
Autre exemple
où D = {(u,v) ∈ R2 | 0 ≤ u ≤ v},
Z et C est un réel à déterminer.
Alors U a pour densité fU (u) = f (u,v)dv donc fU (u) = 0 si u < 0 et, si
R
u > 0, Z ∞
C −4u
fU (u) = C e−2u−2v dv = e ,
u 2
donc U suit la loi E(4) et C =
Z 8.
Et V a pour densité fV (v) = f (u,v)du donc fV (v) = 0 si v < 0 et, si v > 0,
R
Z v
fV (v) = 8 e−2u−2v du = 4(e−2v − e−4v ).
0
On dit que le couple (X,Y) a une densité s’il existe f(X,Y) : R2 → R telle que
Z Z
P(X ∈ A, Y ∈ B) = f(X,Y) (x,y)dx dy pour tous A,B ⊂ R2 .
A B
f(X,Y) est la densité de (X,Y). Alors f(X,Y) (x,y) ≥ 0 pour tous x,y ∈ R, et
Z Z
f(X,Y) (x,y)dx dy = 1.
R R
Calculs d’espérances
Avec la loi du couple (X,Y), on calcule l’espérance de fonctions réelles de X
et Y :
Proposition
Soit ϕ : R2 → R une fonction.
Si X et Y sont discrètes, alors
X X
E[ϕ(X,Y)] = ϕ(x,y)P(X = x, Y = y).
x∈X(Ω) y∈Y(Ω)
ZZ
E eU+V = eu+v f (u,v)du dv
R2
ZZ
= eu+v 8e−2(u+v) du dv
D
Z Z ∞
∞
−u −v
= 8e e dv du
0 u
Z ∞ Z ∞
−u −v
=8 e e dv du
Z0 ∞ u
1
=8 e−u e−u du = 8 = 4.
0 2