Vous êtes sur la page 1sur 12

Chapitre 29 : Variables aléatoires et lois usuelles discrètes

1 Généralités

Définition 1.1. Soit (Ω, A ) un espace probabilisable. On appelle variable aléatoire réelle discrète toute application X de
Ω dans R telle que X(Ω) = (xn )n où (xn )n est une suite de réels, et telle que pour tout i ∈ N, (X = xi ) est un événement.

Notations 1.2. :
— Si X(Ω) est fini, X est une variable aléatoire finie, sinon, X est une variable aléatoire discrète infinie.
— L’événement {ω ∈ Ω, X(ω) = xi } est noté (X = xi ).
Plus généralement, pour tout réel x, on note (X = x) = {ω ∈ Ω, X(ω) = x}. Si x ∈ X(Ω), alors (X = x) est l’un des
événements (X = xi ), sinon (X = x) = 0./

Remarque 1.3. — Dans la pratique, on ne précisera pas toujours l’univers Ω, mais il sera toujours indispensable de
préciser X(Ω).
— Si A est une partie de R, alors on note (X ∈ A) = {ω ∈ Ω, X(ω) ∈ A}. C’est un événement puisque c’est la réunion
finie ou dénombrable des événements (X = xi ) pour tous les indices i tels que xi ∈ A.

Exemple 1.4. On lance un certain nombre de fois un dé "équilibré" et on appelle X le rang d’apparition du premier 6. Que
peut-on choisir comme ensemble X(Ω) ?
On remarque que X(Ω) = N∗ et donc X est une variable aléatoire discrète infinie.

L’événement A : "au cours des 8 premiers lancers, on n’a pas obtenu de 6" s’écrit X > 7.

Proposition 1.5. Soit X une V.A.R discrète définie sur (Ω, A ) et X(Ω) = {xi , i ∈ N} l’ensemble des valeurs prises par
X. Alors les événements {(X = xi )}i∈N forment un système complet d’événements appelé système complet d’événements
associé à la V.A.R. X.

Cette notion est particulièrement importante, on applique souvent la formule des probabilités totales avec le S.C.E.
associé à une certaine variable aléatoire bien choisie.

Démonstration. En effet, pour tout i ̸= j, (X = xi ) ∩ (X = x j ) = 0.


/
+∞
S
De plus, Ω = (X = xk ) d’où le résultat.
k=0

2 Loi et fonction de répartition


2.1 Loi d’une variable aléatoire

Définition 2.1. Soit X une V.A.R. discrète sur (Ω, A , P) telle que X(Ω) = {xi , i ∈ N}. On appelle loi de probabilité de la
V.A.R. X (ou loi de X) la donnée de X(Ω) et de P[X = xi ] pour tout i ∈ N. On note souvent pi = P[X = xi ].

Exemple 2.2. On lance un certain nombre de fois un dé "équilibré" et on appelle X le rang d’apparition du premier 6. Donner
la loi de X.

On a vu X(Ω) = N∗ , et on note pour k ∈ N∗ , Ak : "un six n’a pas été obtenue au tirage k".
5 1
Ainsi P(X = k) = P(A1 ∩ A2 ∩ .... ∩ Ak−1 ∩ A¯k ) = P(A1 ) × P(A2 ) × .... × P(Ak−1 ) × P(A¯k ) = ( )n−1 (on a utilisé l’indépen-
6 6
dance des lancers).

1
Proposition 2.3. (admis) Soit I ⊂ N et (xi , pi )i∈I une famille au plus dénombrable de réels.
(xi , pi )i∈I est la loi de probabilité d’une V.A.R. discrète si et seulement si :
— ∀i ∈ I, pi ≥ 0
— La série ∑ pi converge et ∑ pi = 1.
i∈I

α
Exemple 2.4. Pour quelle valeur de α la formule : ∀n ∈ N, P(X = n) = n définit-elle la loi de probabilité d’une V.A.R. X
3
à valeurs dans N ?
+∞ α 1
Il faut que ∑ n converge (ce qui est le cas car | | < 1) et vaut 1.
k=0 3 3
+∞ α 1 3 +∞ α
Or ∑ n = α = α . Ainsi ∑ n = 1 ssi α = 3/2.
k=0 3 1 − 1/3 2 k=0 3
On vérifie alors que P(X = n) ⩾ 0 pour tout n.

2.2 Etude de Y = g(X)

Proposition 2.5. (admis) Soit X une variable discrète et g une fonction réelle. Alors Y = g(X) est une variable aléatoire.

Exemple 2.6. Soit Y = g(X), g et X respectant le hypothèses du th. ci dessus. On étudie Y = g(X) selon le modèle suivant :
Y (Ω) = g(X(Ω) pour le support et pour tout y ∈ Y (Ω), P(Y = y) = P(g(X) = y) = P(X ∈ g−1 (y)) où g−1 (y) est l’ensemble
des antécédents de y (attention g n’est pas forcément bijective).
Par exemple, soit X une variable aléatoire comme dans l’exercice 2.4.
n−1 3 1
On pose Y = 2X + 1, alors Y (Ω) = {2k + 1 | k ∈ N} et pour tout n ∈ {2k + 1 | k ∈ N}, P(Y = n) = P(X = )=
2 2 3(n−1)/2
n−1
(car ∈ N)
2

2.3 Indépendance des variables aléatoires

Définition 2.7. Soit X et Y deux variables aléatoires discrètes de support X(Ω) = {xi | i ∈ N} et X(Ω) = {yi | i ∈ N} . On
dit que X et Y sont indépendantes si pour tout i, j ∈ N, P(X = i ∩Y = j) = P(X = i)P(Y = j)

Définition 2.8. Soit X1 , ..., Xn des variables aléatoires discrètes. On dit que les Xi sont mutuellements indépendantes si
n
pour tout (x1 , ..., xn ) ∈ X1 (Ω) × .... × Xn (Ω), P(∩nk=1 Xk = xk ) = ∏ P(Xk = xk )
k=1

Remarque 2.9. Même si, lorsque l’on vous demande explicitement, il est nécessaire de démontrer que des variables aléa-
toires sont indépendantes en utilisant cette définition ; il sera souvent implicite que des variables sont indépendantes, dû
souvent au contexte de l’expérience.

2.4 Fonction de répartition.

Définition 2.10. Soit X une V.A.R. discrète sur (Ω, A , P). On appelle fonction de répartition de X l’application usuel-
lement notée FX :
(
R 7→ [0, 1]
FX :
t 7→ FX (t) = P(X ≤ t)

Exemple 2.11. Représenter graphiquement la fonction de répartition d’une variable X de loi binomiale B (2, 14 ).
Calculons P(X ⩽ t) pour tout t, ∈ R.
 1 3 9
P(X = 0) = 20 ( )0 ( )2 =
4 4 16
2 1 1 3 1 6

P(X = 1) = 1 ( ) ( ) =
4 4 16
2
 1 0 3 2
2 1
P(X = 2) = 2( ) ( ) =
4 4 16

 0 si t <0
 9

si t ∈ [0, 1[



Ainsi on a t 7→ FX (t) = 16
15
si t ∈ [1, 2[


16




1 si t ⩾2
On obtient donc :

Proposition 2.12. Propriétés d’une fonction de répartition, admises :


— C’est une fonction croissante.
— Ses limites en −∞ et +∞ sont 0 et 1.
— Elle est continue à droite en tout point de R.
— ∀(a, b) ∈ R2 tels que a < b, on a FX (b) − FX (a) = · · · .

3 Espérance et variance
3.1 Espérance

Définition 3.1. Soit X une V.A.R. discrète sur (Ω, A , P) telle que X(Ω) = {xi , i ∈ N}. On dit que X admet une espérance
+∞
lorsque la série ∑ xi P(X = xi ) est absolument convergente. Dans ce cas : E(X) = ∑ xi P(X = xi ) = ∑ xP(X = x) .
i=0 x∈X(Ω)
On admet que cette somme ne dépend pas de l’indexation de X(Ω).

Remarque 3.2. — Si X est finie, elle admet toujours une espérance ! cette définition englobe le cas fini vu en début
d’année.
— L’hypothèse de convergence absolue assure que l’espérance ne dépend pas de l’ordre choisi pour énumérer les xi , en
effet on peut montrer le résultat suivant :" si une série est seulement "semi-convergente" (c’est-à-dire convergente
(−1)n+1 (−1)n
mais pas absolument convergente, comme ∑ √ , ou encore ∑ ) alors la nature et la somme de la série
n n
dépendent de l’ordre des termes..."

Exemple 3.3. On lance un certain nombre de fois un dé "équilibré" et on appelle X le rang d’apparition du premier 6.
Montrer que X admet une espérance et en faire le calcul.
3
5 1
On rappelle que pour tout n ∈ N∗ , P(X = n) = ( )n−1 × ( )
6 6
+∞
Vérifions que ∑ nP(X = n) converge et trouvons sa valeur.
n=1
+∞ +∞ 5 1 1 +∞ 5
∑ nP(X = n) = ∑ n( )n−1 × ( ) = ∑ n( )n−1 qui converge comme somme dérivée d’une somme géométrique de
n=1 n=1 6 6 6 n=1 6
raison entre ] − 1, 1[.
1 +∞ 5 1 1
De plus, ∑ n( )n−1 = 5 2
= 36 = 6
6 n=1 6 (1 − 6 ) 6

Proposition 3.4. (admise) Soit X,Y deux variables aléatoires qui possède une espérance tel que X ⩽ Y , alors E(X) ⩽
E(Y ).
Si X et Y sont deux variables aléatoires discrètes vérifiant 0 ⩽ |X| ⩽ Y , et si Y admet une espérance, alors X admet
également une espérance. Dans ce cas, |E(X)| ⩽ E(Y ).

3.2 Fonction d’une variable aléatoire et théorème de transfert


 
1
Rappel : soit X une variable aléatoire de loi uniforme sur {1, 2, 3, 4}. Calculer E .
X
Par
 le 
th. de transfert :
1 4 1 4 11 1 1 1 1 12 6 4 3 25
E = ∑ P(X = k) = ∑ = + + + = + + + =
X k=1 k k=1 k 4 4 8 12 16 48 48 48 48 48

Théorème 3.5. (de transfert)(admis) Soit X une V.A.R. discrète sur (Ω, A , P) telle que X(Ω) = {xi , i ∈ N} et f une
fonction définie sur X(Ω). Alors Y = f (X) est une V.A.R. discrète qui admet une espérance lorsque la série ∑ f (xi )P(X =
xi ) est absolument convergente.
+∞
Dans ce cas : E(Y ) = E( f (X)) = ∑ f (xi )P(X = xi ) = ∑ f (x)P(X = x) .
i=0 x∈X(Ω)

Ce théorème permet de calculer l’espérance de Y sans avoir à connaitre sa loi : c’est celle de X qui est utilisée dans la
formule.

Cas particuliers importants :


1. Soit X une V.A.R. discrète admettant une espérance et soit (a, b) ∈ R2 . Alors aX + b admet également une espé-
rance et E(aX + b) = aE(X) + b
2. Soit X une V.A.R. discrète telle que X(Ω) = {xi , i ∈ N}. Si la série ∑ xi2 P(X = xi ) converge (on devrait dire :
"converge absolument", mais c’est inutile, comprenez-vous pourquoi ?),
+∞
alors Y = X 2 admet une espérance et E(X 2 ) = ∑ xi2 P(X = xi ) = ∑ x2 P(X = x) .
i=0 x∈X(Ω)

Exemple 3.6. On lance un certain nombre de fois un dé "équilibré" et on appelle X le rang d’apparition du premier 6. Mon-
trer que Y = X 2 admet une espérance et en faire le calcul.

1 5
En effet, par le th. de transfert, X 2 admet une espérance si ∑ n2 P(X = n) = ∑ n2 ( )n−1 qui converge comme somme
n⩾1 6 n⩾1 6
dérivée seconde d’une somme géométrique de raison entre ] − 1, 1[.
1 +∞ 5 5 +∞ 5 1 +∞ 5 5 2 1 1 5 1
De plus, ∑ n2 ( )n−1 = ∑ n(n − 1)( )n−2 + ∑ n( )n−1 = 3
+ ( 2
) = (63 × 2) + 62 =
6 n=1 6 36 n=1 6 6 n=1 6 36 (1 − 5/6) 6 (1 − 1/6) 36 6
66

Proposition 3.7. (admise) Soit X et Y deux variables aléatoires discrètes qui admettent toutes les deux un espérances
alors pour tout a, b ∈ R, aX + bY admet une espérance et E(aX + bY ) = aE(X) + bE(Y ).

4
Exemple 3.8. On considère une suite de tirages avec remise dans une urne contenant des boules blanches et noires. On note,
pour tout n ∈ N, Xn (resp. Yn ) le nombre de boules blanches (resp. noire) obtenues lors des n premiers tirages.
Ainsi X +Y = n, pour tout n ∈ N.
Enfin, pour tout n ∈ N, E(X +Y ) = E(X) + E(Y ) = E(n) = n et donc E(Y ) = n − E(X).

3.3 Variance

Définition 3.9. Soit X une V.A.R. discrète sur (Ω, A , P) telle que X(Ω) = {xi , i ∈ N}.
On dit que X admet une variance lorsque :
— X admet une espérance, et
— (X − E(X))2 admet une espérance, autrement dit : la série ∑(xi − E(X))2 P(X = xi ) converge.
 +∞
Dans ce cas, la variance de X est le réel positif : V (X) = E (X − E(X))2 = ∑ (xi − E(X))2 P(X = xi )

i=0

p
Définition 3.10. Soit X une V.A.R. discrète admettant une variance. L’écart-type de X est le réel σ(X) = V (X) .

Proposition 3.11. Soit X une V.A.R. discrète admettant une variance et soit (a, b) ∈ R2 . Alors la variable aléatoire
Y = aX + b admet une variance et V (Y ) = V (aX + b) = a2V (X) .
On a aussi : σ(aX + b) = |a|σ(X)

Démonstration. Il est évident que aX + b admet un espérance au vue du cours ci-dessus.


Notons X(Ω) = {xi | i ∈ N}, alors, (aX + b)(Ω) = {axi + b | i ∈ N} et pour tout i ∈ N, (axi + b − E(aX + b))2 P(aX + b =
axi + b) = a2 (xi − E(X))2 P(X = xi ). D’où la convergence de ∑(axi + b − E(aX + b))2 P(aX + b = axi + b) et V (aX + b) =
+∞
∑ (axi + b − E(aX + b))2 P(aX + b = axi + b) = a2 ∑(xi − E(X))2 P(X = xi ) = a2V (X).
i=0

Théorème 3.12. Formule de Huygens-Koing (admis)


Soit X une V.A.R. discrète. V (X) existe ⇔ E(X 2 ) existe et on a V (X) = E(X 2 ) − E(X)2 .

Démonstration. On montre tout de même que V (X) = E((X −E(X))2 ) = E(X 2 −2XE(X)+E(X)2 ) = E(X 2 )−2E(X)E(X)+
E(X)2 = E(X 2 ) − E(X)2 par 3.7

Exemple 3.13. On lance un certain nombre de fois un dé "équilibré" et on appelle X le rang d’apparition du premier 6.
Montrer que X admet une variance et en donner la valeur.
Vu que E(X 2 ) existe par les exemples ci dessus, alors V (X) existe et V (X) = E(X 2 ) − E(X)2 = 66 − 62 = 30.

Proposition 3.14. Soit X une variable aléatoire qui admet une variance, et tel que V (X) = 0. Alors X est presque sûrement
constante, c’est à dire qu’il existe c ∈ R tel que P(X = c) = 1, et c = E(X).

+∞
Démonstration. Soit X une telle variable, alors comme ∑ (xi − E(X))2 P(X = xi ) = 0 et qu’il s’agit d’une série à termes
i=0
positifs, alors pour tout i ∈ N, (xi − E(X))2 P(X = xi ) = 0.
Ainsi pour tout i ∈ N, xi = E(X) ou P(X = xi ) = 0.
Donc pour tout x ̸= E(X), P(X = x) = 0 et donc P(X = E(X)) = 1.

Définition 3.15. Une variable aléatoire X admettant une espérance est dite centrée lorsque E(X) = 0. Une variable
aléatoire X admettant une espérance et une variance est dite centrée-réduite lorsque E(X) = 0 et V (X) = 1.

5
Proposition 3.16. Soit X une V.A.R. admettant une espérance. Alors la variable aléatoire Y = X − E(X) est centrée. Si
X − E(X)
de plus, X admet une variance non nulle, alors la variable aléatoire X ∗ = est centrée-réduite.
σ(X)

Démonstration. Trivial

3.4 Moments d’une V.A.R. discrète

Définition 3.17. Soit r ∈ N∗ et X une V.A.R. discrète.


Sous réserve d’existence, on appelle moment d’ordre r le X le réel : E(X r )

Remarque 3.18. 1. Toute V.A.R. finie admet des moments à tous les ordres.
2. S’il existe, le moment d’ordre 1 d’une variable aléatoire discrète est E(X).

Proposition 3.19. (hors programme) Soit r ∈ N∗ et X une V.A.R. discrète. X admet un moment d’ordre r ⇒ X admet des
moments d’ordres k avec k ∈ {1, 2, · · · , r}.

Démonstration. Nous allons nous placer dans le cas très courant où X(Ω) ⊂ N
Soit k, r ∈ N∗ tels que k ⩽ r. Supposons que X admette un moment d’ordre r.
On remarque que : |X k | ⩽ 1 + |X r |.
En effet si |X| ⩽ 1 alors |X k | ⩽ 1 ⩽ 1 + |X r |, et si |X| > 1 alors |X|k ⩽ |X|r ⩽ 1 + |X r |.
Or 1 et |X|r admettent une espérance : pour 1 c’est trivial et pour |X|r par définition et hypothèse.
Donc par la prop. 3.4, X k admet un espérance.

Voici pour terminer un dernier exercice qui prouve que les implications réciproques sont fausses : si X a un moment
d’ordre r, X n’admet pas forcément des moments avec des ordres supérieurs. En particulier, l’implication E(X) existe ⇒
E(X 2 ) existe est fausse.
α
Exercice 1. Soit l’application qui à tout n ∈ N∗ associe , α étant un paramètre réel.
n3
1. Montrer que l’on peut choisir α pour que cette application définisse la loi d’une V.A.R. discrète.
α
En effet, on cherche α ∈ R+ tel que ∑ 3
converge et vaut 1 : celle ci converge par critère de Riemann avec
n⩾1 n
α 1 α
s = 3 et de plus, ∑ 3 = 1 ⇔ α = (possible car ∑ 3 > 0).
n⩾1 n 1 n⩾1 n
∑ 3
n⩾1 n
1 1
Comme α > 0, il est facile de vérifier que la P(X = n) = 3 × définie bien une probabilité.
n 1
∑ 3
n⩾1 n

2. Soit X une V.A.R. discrète suivant cette loi. Étudier l’existence de moments d’ordre r, avec r ∈ N∗ , pour cette variable
aléatoire.

αnr 1
En effet, par le th. de transfert, E(X r ) existe si ∑3
= α ∑ 3−r converge.
n⩾1 n n⩾1 n
Ceci est vraie ssi 3 − r > 1 donc r < 2. Ainsi X n’admet que des moments d’ordre r < 2
3. X admet-elle une variance ?

Non car X n’admet pas de moment d’ordre 2 (ici E(X) existe mais pas E(X 2 ))

6
4 Remarque sur les lois discrètes
Les lois usuelles finies peuvent être considérées comme des lois discrétes infinies : il suffit de prolonger les lois par 0 en
dehors du support.
Par exemple, pour la loi de Bernoulli, on peut la définir par X(Ω) = N et P(X = 1) = p et P(X = 0) = 1 − p, et pour tout
k ⩾ 2, P(X = k) = 0. On montre alors sans difficulté que E(X) existe et E(X) = p et V (X) existe et V (X) = p(1 − p).
On fait de même pour les lois de Bernoulli et Uniforme.
On rappelle les faits suivants :

4.1 La loi uniforme U ([[1, n]])


Loi uniforme
Définition 4.1. Une variable aléatoire suit une loi uniforme U ([[1, n]]), ce que l’on note X ∼ U ([[1, n]]), si l’on X(Ω) =
1
[[1, n]] et ∀k ∈ [[1, n]], P(X = k) = .
n

Espérance et variance
n+1 n2 − 1
Proposition 4.2. Si X ∼ U ([[1, n]]) alors E(X) = , et V (X) = .
2 12

n 1 n n(n + 1) n + 1
Démonstration. E(X) = ∑ kP(X = k) = ∑ k= = .
k=1 n k=1 2n 2
n 1 n n(n + 1)(2n + 1) (n + 1)(2n + 1)
E(X 2 ) = ∑ k2 P(X = k) = ∑ k2 = = .
k=1 n k=1 6n 6
(n + 1)(2n + 1) (n + 1)2 (n + 1)[−3(n + 1) + 2(2n + 1)] (n + 1)(n − 1) n2 − 1
V (X) = E(X 2 ) − E(X)2 = − −= = = .
6 4 12 12 12

Exemple 4.3. On extrait une boule au hasard d’une urne qui contient n boules numérotées de 1 à n. On suppose que l’on se
situe dans une situation d’équiprobabilité. Ainsi si on note X le numéro de la boule obtenue, alors X(Ω) = [[1, n]], et pour
1 n+1 n2 − 1
tout k ∈ [[1, n]], P(X = k) = donc X ∼ U ([[1, n]]) et donc E(X) = et V (X) = .
n 2 12
Loi uniforme/généralisation
Proposition 4.4. Soit a < b. Une variable aléatoire suit une loi uniforme U ([[a, b]]), ce que l’on note X ∼ U ([[a, b]]), si
1
l’on X(Ω) = [[a, b]] et ∀k ∈ [[a, b]], P(X = k) = .
b−a+1
X ∼ U ([[a, b]]) ⇔ X − a + 1 ∼ U ([[1, b − a + 1]]).
a+b (b − a + 1)2 − 1
Si X ∼ U ([[a, b]]) alors E(X) = , et V (X) = .
2 12

4.2 Loi de Bernoulli de paramètre p ∈ [0, 1]


Loi de Bernoulli
Définition 4.5. Une variable aléatoire suit une loi de Bernoulli B (p), ce que l’on note X ∼ B (p), si l’on X(Ω) = {0, 1}
et P(X = 1) = p.

Espérance et variance
Proposition 4.6. Si X ∼ B (p) alors E(X) = p, et V (X) = p(1 − p).

Démonstration. E(X) = 0P(X = 0) + 1P(X = 1) = p et E(X 2 ) = 02 P(X = 0) + 12 P(X = 1) = p.


V (X) = E(X 2 ) − E(X)2 = p − p2 = p(1 − p).

7
4.3 Loi binomiale de paramètre p ∈ [0, 1] et n ∈ N
Loi binomiale
Définition 4.7. Une variable aléatoire suit une  loi de Bernoulli B (n, p), ce que l’on note X ∼ B (n, p), si l’on X(Ω) =
[[0, n]] et pour tout k ∈ [[0, n]], P(X = k) = nk pk (1 − p)n−k .

Espérance et variance
Proposition 4.8. Si X ∼ B (n, p) alors E(X) = np, et V (X) = np(1 − p).

n n
Démonstration. E(X) = ∑ kP(X = k) = ∑ k nk pk (1 − p)n−k

k=0 k=0
n
 n n−1
Or pour tout n, k > 0, k = k−1 . Ainsi :
k
n n−1 n−1
n−1 k
= ∑ n n−1 n−1
 n−k
 k+1
(1 − p)n−(k+1) = n ∑ p

E(X) = ∑ n k−1 p (1 − p) k p k pk (1 − p)n−1−k = pn(p + 1 − p)n−1 = np
k=1 k=0 k=0
n n(n − 1) n−2
pour calculer E(X 2 ) ...
 
De plus avec k = k−2
k(k − 1)

Contexte d’utilisation
Proposition 4.9. Une variables aléatoire comptant le nombre de succès au cours de n expériences de Bernoulli indé-
pendantes, chacune ayant deux issues possibles, le succés de probabilité étant p et celle de l’échec 1 − p, suit une loi
Binomiale B(n, p)

Exemple 4.10. On lance n fois une pièce, donnant Pile avec la probabilité p et face 1 − p. quelle est la loi de la variable
aléatoire X égale au nombre de Piles obtenues ?
Les lancers de la pièce sont indépendants, et donc X compte le nombre de succès lors de n expériences de Bernoulli indé-
 X ∼ B (n,
pendantes de succès "obtenir pile" de probabilité p alors
n k
p) et donc :
n−k
X(Ω) = [[0, n]] et pour tout k ∈ [[0, n]], P(X = k) = k p (1 − p) et E(X) = np et V (X) = np(1 − p)

5 Lois géométriques
5.1 Définition et modèle probabiliste.

Définition 5.1. Soit p ∈]0, 1[. On dit que la variable aléatoire X suit la loi géométrique de paramètre p (notation : X ,→
G (p) )lorsque :
— X(Ω) = N∗
— ∀k ∈ N∗ , P(X = k) = p(1 − p)k−1

Remarque 5.2. Cette définition a bien un sens :


∀k ∈ N∗ , P(X = k) = p(1 − p)k−1 ⩾ 0
+∞
De plus, ∑ kp(1 − p)k−1 = p ∑ (1 − p)k−1 converge par série géométrique avec q = 1 − p ∈] − 1, 1[ et p ∑ (1 − p)k−1 =
k⩾1 k⩾1 k=1
+∞ 1
p∑ (1 − p)k =p =1
k=0 1 − (1 − p)

Théorème 5.3. (modèle probabiliste pour une telle loi) : Soit p ∈]0, 1[. Dans une suite d’épreuves de Bernoulli, identiques
et indépendantes, de paramètre p, la variable aléatoire X égale au rang du premier succès suit la loi G (p).


Démonstration. A priori, on  = N ∪ {0} si on pose X = 0 lorsque l’événement "le succès n’arrive jamais" a lieu.
 a X(Ω)
+∞
T
En fait, P(X = 0) = P Bi
i=1
où Bi est l’événement "aucun succès n’arrive au cours des i premières épreuves".
8
Or la suite d’événements (Bi ) est une suite décroissante d’événements (En effet, si Bn+1 est réalisée alors aucun succès
n’arrive au cours des n + 1 premières épreuves et aucun succès n’arrive au cours des n premières épreuves et donc Bn est
réalisé), donc  
+∞
= lim P(Bi ) = lim (1 − p)i = 0 car 1 − p ∈] − 1, 1[.
T
P(X = 0) = P Bi
i=1 i→+∞ i→+∞

En effet P(Bi ) = P(A1 ∩ A2 ∩ ... ∩ Ai ) où Ak est l’événement "la k − me épreuve donne un échec" (qui sont indépendants)
Dans cette situation, on prend X(Ω) = N∗ .
On a de plus que ∀k ∈ N∗ , P(X = k) = P(A1 ∩ A2 ∩ ... ∩ Ak ∩ A¯k ) = P(A1 )P(A2 )...P(Ak−1 )P(A¯k ) = p(1 − p)k−1

5.2 Espérance et variance

Théorème 5.4. Soit p ∈]0, 1[ et X une variable aléatoire de loi géométrique G (p).
1 1− p
X admet une espérance et une variance et E(X) = , V (X) = 2
p p

Démonstration. La série ∑ kp(1 − p)k−1 converge (absolument mais ici c’est équivalent à la convergence) car p ∑ k(1 −
k⩾1 k⩾1
p)k−1 converge par série dérivée géométrique de raison 1 − p ∈] − 1, 1[.
+∞ 1 1
Donc E(X) existe et E(X) = p ∑ k(1 − p)k−1 = p 2
=
k=1 (1 − (1 − p)) p

La série ∑ k2 p(1 − p)k−1 converge (absolument mais ici c’est équivalent à la convergence) car p ∑ k2 (1 − p)k−1 =
k⩾1 k⩾1
p∑ k(k − 1)(1 − p)k−1 + p ∑ k(1 − p)k−1 converge par série dérivée seconde géométrique de raison 1 − p ∈] − 1, 1[ et par
k⩾1 k⩾1
série dérivée géométrique de raison 1 − p ∈] − 1, 1[.
+∞ 2p(1 − p)
+∞ p
Donc E(X 2 ) existe et E(X 2 ) = p(1 − p) ∑ k(k − 1)(1 − p)k−2 + p ∑ k(1 − p)k−1 = 3
+ =
k=1 k=1 (1 − (1 − p)) (1 − (1 − p))2
1− p 1 1− p 1 1 2 − 2p − 1 + p
2 2 + et donc V (X) existe par le th. de Huygens et V (X) = E(X 2 ) − E(X)2 = 2 2 + − 2 = =
p p p p p p2
1− p
.
p2

Exemple 5.5. 1. On lance deux dés équilibrés jusqu’à obtenir un 1 et un 6. On appelle X le nombre de lancers effectués.
Calculer E(X) et V (X).
On remarque que X est le rang du premier succès dans la suite d’expériences de Bernoulli : "obtenir un 6 et un 1",
2 1 1 1
identiques et indépendantes, qui est de paramètre = . Ainsi X ∼ G( ) et E(X) = = 18 et V (X) =
36 18 18 1/18
1 − 1/18 17
2
= 182 = 18 × 17.
(1/18) 18
1
2. Soit X une var. aléatoire telle que X(Ω) = N∗ et ∀k ∈ N∗ , P(X = k) = k . Reconnaitre la loi de X.
2
X ∼ G(1/2)
1 3 k
 
3. Soit X une variable aléatoire telle que X(Ω) = N et ∀k ∈ N, P(X = k) = .
4 4
(a) Expliquer pourquoi X ne suit pas une loi géométrique.
Le support de X n’est pas N∗ .
(b) On pose Y = X + 1.
Montrer que Y suit une loi géométrique et donner les valeurs de E(Y ) et V (Y ).

9
 k−1
1 3
Y (Ω) = N∗ et pour tout k ∈ N∗ , P(Y = k) = P(X + 1 = k) = P(X = k − 1) = et donc Y suit une loi
4 4
1
géométrique de paramètre .
4
1 1 − 1/4 3
E(Y ) = = 4 et V (Y ) = 2
= 42 = 12.
1/4 (1/4) 4
(c) Ainsi comme X = Y − 1, alors E(X) existe et E(X) = E(Y − 1) = E(Y ) − 1 = 3 et V (X) existe et V (X) = 12.

5.3 Loi de Poisson


5.4 Définition.

Définition 5.6. Soit λ ∈]0, +∞[. On dit que la variable aléatoire X suit la loi de Poisson de paramètre λ (notation :
X ,→ P (λ) )lorsque :
— X(Ω) = N
λk
— ∀k ∈ N, P(X = k) = e−λ
k!

Remarque 5.7. Cette définition a bien un sens :


λk
∀k ∈ N, P(X = k) = e−λ ⩾0
k!
λk λk +∞ λk
De plus, ∑ e−λ = e−λ ∑ converge par série exponentielle avec x = λ et e−λ ∑ = e−λ eλ = 1
k⩾0 k! k⩾1 k! k=0 k!

Remarque 5.8. Cette loi n’a pas de modèle probabiliste contrairement à la loi géométrique. Elle est utilisée pour modéliser
certaines situations aléatoires et ce sera précisé par l’énoncé. Elle apparait aussi comme loi "limite" comme nous allons le
voir dans le dernier paragraphe de ce chapitre.

5.5 Espérance et variance

Théorème 5.9. Soit λ ∈]0, +∞[ et X une variable aléatoire de loi de Poisson P (λ).
X admet une espérance et une variance et E(X) = V (X) = λ

λk λk λk
Démonstration. ∑ e−λ k est absolument convergente (ce qui ici est identique à la convergence) car ∑ e−λ k = ∑ e−λ
k⩾0 k! k⩾0 k! k⩾1 (k − 1)!
λk−1 λk
e−λ λ ∑ = e−λ λ ∑ converge par série exponentielle.
k⩾1 (k − 1)! k⩾0 k!
+∞ λk
Donc E(X) existe et E(X) = e−λ λ ∑ = e−λ λeλ = λ.
k=0 k!

λk λk λk
∑ e−λ k2 est absolument convergente (ce qui ici est identique à la convergence) car ∑ e−λ k2 = ∑ ke−λ =
k⩾0 k! k⩾0 k! k⩾1 (k − 1)!
λk λk λk λk λk−2 λk−1
∑ (k − 1)e−λ + ∑ e−λ = ∑ e−λ + ∑ e−λ = e−λ λ2 ∑ + e−λ λ ∑ =
k⩾1 (k − 1)! k⩾1 (k − 1)! k⩾2 (k − 2)! k⩾1 (k − 1)! k⩾2 (k − 2)! k⩾1 (k − 1)!
λk λk
= e−λ λ2 ∑ + e−λ λ ∑ converge (série exponentielle).
k⩾0 k)! k⩾0 k!
+∞ λk +∞ λk
E(X 2 ) existe et E(X 2 ) = e−λ λ2 ∑ + e−λ λ ∑ = e−λ λ2 eλ + e−λ λeλ = λ2 + λ
k=0 k)! k=0 k!
Ainsi V (X) existe et V (X) = E(X 2 ) − E(X)2 = λ2 + λ − λ2 = λ.

Exemple 5.10. Soit X ,→ P (3.5).

10
Écrire un script Scilab créant une matrice ligne de longueur 10 avec les probabilités P(X = k) pour k ∈ {0, 1, · · · , 8, 9}.

A=zeros(1,10) ;
for k=1 :10
A(k)=exp(-3.5) * 3.5ˆ(k-1) / (factorial(k-1))
end
Ce script donne le résultat suivant lors de son exécution :
0.0301974-0.1056908-0.184959-0.2157855-0.1888123-0.1321686-0.0770983-0.0385492-0.0168653-0.0065587
Les valeurs suivantes pour k ≥ 10 sont très petites et on a E(X) = V (X) = 3.5 pour cette loi.

6 Approximation de la loi de Poisson par une loi Binomiale

λ
Théorème 6.1. (admis) Soit λ ∈]0, +∞[ et n0 un entier strictement positif tel que < 1.
n0
Soit  variable aléatoire de loi de Poisson P (λ) et (Xn )n≥n0
 X une une suite de variables aléatoires de loi binomiale
λ
B n, . Alors on a
n
λk
∀k ∈ N, lim P(Xn = k) = e−λ = P(X = k)
n→+∞ k!
On dit que la suite de variables aléatoires (Xn ) converge en loi vers la variable aléatoire X.

Démonstration. Dans les conditions du théorème, pour tout n ∈ N, pour tout k ∈ N,


  k
n λ (n − λ)n−k
P(Xn = k) =
k nn
n

n
 nk k n(n − 1)...(n − k + 1)
Néanmoins, k ∼ car k = → 1.
k! n nk
k!
(n − λ)n−k λ n−k λ λ (n − k)λ
Aussi, n−k
= (1 − ) = exp((n − k)ln(1 − )), et comme (n − k)ln(1 − ) ∼ − ∼ −λ et donc exp((n −
n n n n n
λ
k)ln(1 − )) → e−λ .
n
Ainsi (n − λ)n−k ∼ nn−k e−λ .
Et donc
n λ (n − λ)n−k nk e−λ nn−k λk e−λ λk
  k
P(Xn = k) = ∼ =
k nn k! nn k!
D’où le résultat.
 
3.5
Exemple 6.2. On prend λ = 3.5 et (Xn )n≥4 une suite de variables aléatoires de loi binomiale B n, .
  n
3.5
Pour n = 10, X10 ,→ B 10, . Calculer P(X10 = 2).
10
P(X10 = 2) = 10 2 8

2 (0.35) (0.65)
 
1
Calculer P(X35 = 2) = 35 (0.1)2 (0.9)33 .

Pour n = 35, X35 ,→ B 35, 2
10

A quelle valeur peut-on comparer ces deux valeurs numériques ( P(X10 = 2) et P(X35 = 2) ) ?

3.52  3.5 3.5 n−2


On peut comparer à e−3.5 qui est la valeur limite de lim n2 ( )2 (1 − )
2 n→+∞ n n
11
7 Des inégalités célèbres :

Théorème 7.1. 1. (Markov) Soit X une variables aléatoire positive discrète admettant une espérance, alors pour
tout λ > 0 :
E(X)
P(X ⩾ λ) ⩽
λ
2. (Bienaymé-Tchebychev) Si X est une variables aléatoire discrète possèdant une espérance et une variance alors
pour tout ε > 0 :
V (X)
P(|X − E(X)| ⩾ ε) ⩽ 2
ε

Démonstration. 1. X admet une espérance et, en notant X(Ω) = {xk | k ∈ N} (on remarque que pour tout k ∈ N, xk ⩾ 0),
+∞
E(X) = ∑ xk P(X = xk ).
k=0
Soit λ > 0. On pose Y la variable aléatoire suivant un loi de Bernoulli : Y = 1 si X ⩾ λ, 0 sinon.
Alors on remarque que 0 ⩽ |λY | = λY ⩽ X : en effet, si Y = 1 alors λY = λ et X ⩾ λ = λY , et si Y = 0 alors
X ⩾ λY = 0 par hypothèse.
Ainsi par la proposition 3.4, |E(λY )| = λE(Y ) = λP(X ⩾ λ) ⩽ E(X). D’où le résultat.
Ainsi comme chaque terme de cette série est positif alors, pour tout λ > 0,
+∞ +∞
λP(X ⩾ λ) = λ ∑ P(X = k) = ∑ λP(X = k)
k=⌊λ⌋+1 k=⌊λ⌋+1

2. Soit X uve VAD possèdant une espérance et une variance et ε > 0.


On applique le point 1 avec Y = (X − E(X))2 et λ = ε2 . Comme Y est une VA positive et admet une espérance car X
admet une variance alors
E(Y )
P(Y ⩾ ε2 ) ⩽ 2
ε
et donc, comme (X − E(X))2 ⩾ ε2 ⇔ |X − E(X)| ⩾ ε alors
V (X)
P(|X − E(X)| ⩾ ε) ⩽
ε2

Exemple 7.2. Soit X une VAD admettant une variance σ2 (σ > 0). Alors pour tout α > 0, comme ασ > 0, par Bienaymé-
Tchebychev
V (X) 1
P(|X − E(X)| ⩾ ασ) ⩽ 2 2 = 2
α σ α
Ainsi en remarquant que P(|X − E(X)| ⩾ ασ) = 1 − P(|X − E(X)| < ασ) et donc
1
P(|X − E(X)| < ασ) ⩾ 1 − 2
α
Exemple 7.3. Soit (Xn ) une suite de variables aléatoire indépendantes de même loi qui admettent une espérance m et une
1 n
variance. On note pour tout n ∈ N, X¯n = ∑ Xi . Alors pour tout ε > 0,
n i=1
lim P(|X¯n − m| ⩾ ε) = 0
n→+∞

Soit n ∈ N, en effet, on remarque que X¯n admet une espérance et une variance : pour l’espérance, c’est conséquence du fait
1 n 1 n
que pour tout k ∈ N, Xk admet une espérance et de la proposition 3.7. De plus, E(X¯n ) = ∑ E(Xk ) = ∑ E(X) = E(X).
n k=1 n k=1
Mais pour la variance, c’est conséquence de l’indépendance des variables aléatoires, et on admet ici que cela implique que
1 n 1 n 1 n 1 V (X)
∑ Xi admet une variance et que V ( ∑ Xi ) = 2 ∑ V (Xk ) = 2 nV (X) = .
n i=1 n i=1 n k=1 n n
Ainsi par le th. de Bienaymé-Tchebichev, pour tout ε > 0,
V (X¯n ) V (X)
0 ⩽ P(|X¯n − m| ⩾ ε) ⩽ =
ε2 nε2
Et donc P(|X¯n − m| ⩾ ε) → 0 par TDG.
12

Vous aimerez peut-être aussi