Vous êtes sur la page 1sur 11

Chapitre 3

Variables aléatoires discrètes

Objectifs du chapitre
1. Savoir calculer la loi de probabilité d’une variable aléatoire.
2. Savoir calculer l’espérance, la variance et l’écart type d’une variable aléatoire L1 , L2 .
3. Savoir reconnaître une loi usuelle.

Lorsque le résultat d’une expérience où intervient le hasard est à valeurs dans un ensemble au plus dénombrable, nous
sommes en présence d’une variable aléatoire discrète. On calcule alors les probabilités d’obtention de ces valeurs, puis l’on
définit et calcule l’espérance, la variance et l’écart type associés.

3.1 Définition d’une variable aléatoire discrète


Avant de donner la définition générale d’une variable aléatoire discrète, étudions deux exemples.

Exemple 3.1.1. On lance deux dés et on note X la somme des deux nombres obtenus. L’univers Ω associé à l’expérience est
l’ensemble
Ω = {(a, b) | a, b ∈ {1, ..., 6}} = {1, .., 6} × {1, .., 6}.
Le cardinal de Ω est 36.
L’ensemble des évènements est l’ensemble des parties de Ω. Nous sommes dans une situation d’équiprobabilité. Pour un
évènement A nous posons donc
Card (A)
P(A) = ,
Card (Ω)
et nous savons par le chapitre précédent que la fonction P est une probabilité.

Nous sommes intéressés par la fonction

X : Ω → R
ω = (a, b) 7→ X(ω) = a + b.

Par exemple X(1, 4) = 5.


On remarque que les résultats possibles sont les nombres compris entre 2 et 12.
Quelles sont les probabilités d’obtention de ces résultats ? Par exemple pour obtenir 5 nous recherchons la probabilité de
l’évènement “la somme des résultats obtenus est 5” que nous noterons naturellement

{X = 5} ou X −1 (5) = {ω ∈ Ω | X(ω) = 5}.

1
Nous avons
{X = 5} = {(1, 4), (4, 1), (2, 3), (3, 2)}.

La probabilité de cet évènement est donc

Card ({X = 5}) 4 1


P(X = 5) = = = .
Card Ω 36 9

Exemple 3.1.2. On lance un dé équilibré et on appelle X l’indice de la première apparition du nombre 1. On considère

Ω = {(a1 , ..., aN ) | N ≥ 1, aN = 1 et ai ∈ {2, ..., 6} pour i ∈ {1, ..., N − 1}}.

Comme expliqué au chapitre précédent on peut construire une probabilité P telle que
 N−1
1 5
P(“obtenir un 1 au lancé N et pas avant ”) = .
6 6

Nous nous intéressons à la variable aléatoire

X : Ω → R
ω = (a1 , ..., aN ) 7→ N.

Par ce qui précède


 N−1
1 5
P(X = N) = .
6 6

Définition 3.1.3 (Variable aléatoire discrète). Soit (Ω, A , P) un espace probabilisé, soit V une partie dénombrable de R. On
considère une fonction X
X : Ω → R
ω 7→ X(ω) ∈ V .

On dira que X est une variable aléatoire discrète si et seulement si pour toute valeur v de V , l’ensemble

(X = v) = X −1 (v) = {ω ∈ Ω | X(ω) = v}

est un évènement.

Remarque 3.1.4. 1. Dans la définition précédente on peut remplacer R par Rn .


2. Dans le cas où Ω est fini ou dénombrable, toute fonction à valeurs dans R est une variable aléatoire. En effet, le nombre
de valeurs prises par cette fonction est nécessairement dénombrable. De plus, dans la construction du modèle expliqué
au chapitre précédent, toute partie de Ω est un évènement. En particulier les parties “X = n” sont des évènements.

Notation 3.1.5. Soit (Ω, A , P) un espace probabilisé. Soit X une variable aléatoire discrète. Voici quelques exemples de
notations utilisées dans la suite :
(X = a) := {ω ∈ Ω | X(ω) = a}

(a ≤ X ≤ b) := {ω ∈ Ω | a ≤ X(ω) ≤ b}

(X > a) := {ω ∈ Ω | X(ω) > a}.

En exercice on vérifiera que

Proposition 3.1.6. La notion de variable aléatoire discrète est stable par toutes les opérations classiques sur les fonctions :
combinaison linéaire, produit, minimum ou maximum de deux variables aléatoires discrètes.

2
3.2 Loi d’une variable aléatoire discrète
Définition 3.2.1 (Loi de probabilité d’une variable aléatoire discrète). Soit (Ω, A , P) un espace probabilisé. Soit X une
variable aléatoire discrète La fonction qui associe à tout a ∈ R la probabilité P(X = a) est appelée loi de probabilité de la
variable aléatoire X.
La variable aléatoire discrète X induit une mesure de probabilité PX sur (R, BR ) avec pour tout borélien A

PX (A) = P(X −1 (A)).

En particulier si on note (xn ) les valeurs de X nous avons

PX = ∑ P(X = xn )1{x } .
n
n∈N

Se donner PX revient à se donner la loi de X. On peut ainsi parler d’une variable aléatoire X ayant une loi de probabilité PX
sans spécifier l’espace probabilisé (Ω, A , P) sur lequel X est défini. On ne retiendra donc que (R, BR , PX ) que l’on étudie
de manière autonôme en oubliant l’espace probabilisé initial. La mesure de probabilité PX est appelée mesure image de la
probabilité P par X.
Proposition 3.2.2 (Propritétés de la loi d’une variable aléatoire discrète). Soit (Ω, A , P) un espace probabilisé. Soit X une
une variable aléatoire discrète à valeurs dans V = (xi )i∈I et de loi (pi )i∈I . On a
1. ∀i ∈ I, 0 ≤ pi ≤ 1,
2. ∑i∈I pi = 1.
Exemple 3.2.3. Dans l’exemple précédent du lancé de deux dés la loi de X est donné par le vecteur
 
1 2 3 4 5 6 5 4 3 2 1
p= , , , , , , , , , ,
36 36 36 36 36 36 36 36 36 36 36

3.3 Fonction de répartition d’une variable aléatoire discrète


Définition 3.3.1 (Fonction de répartition d’une variable aléatoire). Soit (Ω, A , P) un espace probabilisé. Soit X une variable
aléatoire. La fonction de répartition de X est une fonction définie sur R par

F(x) = P(X ≤ x).

Comme exercice vous pouvez représenter la fonction de répartition associée à la variable aléatoire précédente, puis vous
pouvez vérifier les propriétés suivantes :
Proposition 3.3.2. Soit (Ω, A , P) un espace probabilisé. La fonction de répartition d’une variable aléatoire X a les pro-
priétés suivantes :
1. Elle est croissante.
2. Elle est continue à droite en tout point de R.
3. Elle est continue en un point x si et seulement si P(X = x) = 0.
4. Sa limite en −∞ vaut 0
5. Sa limite en +∞ vaut 1.
Démonstration. 1. Soit x ≤ y. Nous avons l’inclusion

(X ≤ x) = {ω ∈ Ω | X(ω) ≤ x} ⊂ (X ≤ y) = {ω ∈ Ω | X(ω) ≤ y}.

Par monotonie de la probabilité P nous avons donc

F(x) = P(X ≤ x) ≤ P(X ≤ y) = F(y).

Ceci montre que la fonction F est croissante. En particulier elle admet une limite en +∞ et −∞.

3
2. Fixons un point x de R et considérons une suite (xn ) de réels qui converge vers x avec x ≤ xn . On peut supposer cette
suite décroissante. Montrons que la suite (F(xn )) converge vers F(x). Par définition nous avons

F(xn ) = P(X ≤ xn ).

Remarquons que la famille (X ≤ xn ) est une famille de parties de Ω décroissantes avec

∩n∈N (X ≤ xn ) = (X ≤ x).

En effet si ω vérifie X(ω) ≤ x alors pour tout n ∈ N, X(ω) ≤ xn donc ω ∈ ∩n∈N (X ≤ xn ). Réciproquement, si pour tout
entier n, X(ω) ≤ xn alors par prolongement des inégalités par passage à la limite nous obtenons X(ω) ≤ x = limn xn .
Donc ω appartient à (X ≤ x). Par continuité décroissante de la mesure de probabilité P on a

F(x) = P(∩n∈N X ≤ xn ) = lim P(X ≤ xn ) = lim F(xn ).


n→∞ n→∞

3. Soit (xn ) une suite de réels qui converge vers un point x. On peut supposer cette suite croissante. La famille (X ≤ xn )
est une famille croissante de parties de Ω avec

∪n∈N (X ≤ xn ) t (X = x) = (X ≤ x).

Par additivité de la mesure nous avons

P(∪n∈N (X ≤ xn )) + P(X = x) = P(X ≤ x).

Par le théorème de continuité croissante de la mesure P nous avons

lim F(xn ) + P(X = x) = F(x).


n→∞

Nous avons donc continuité à gauche (et donc continuité par le point précédent) de F en x si et seulement si nous
avons P(X = x) = 0.
4. Soit (xn ) une suite de réel tendant vers −∞. On peut supposer cette suite décroissante. Nous avons donc

∩(X ≤ xn ) = 0,
/

et par application de la continuité décroissante de la mesure P nous obtenons

lim F(xn ) = lim P(X ≤ xn ) = P(0)


/ = 0.
n→∞ n→∞

Ceci est vrai pour toute suite décroissante, on conclue donc que la limite de la fonction en −∞ vaut 0.
5. Soit (xn ) une suite de réels tendant vers +∞. Nous avons Ω = ∪n∈N (X ≤ xn ) et nous obtenons le résultat par continuité
croissante de la mesure P.

→ La fonction de répartition d’une variable X permet ainsi de caractériser les valeurs prises par X, la loi suivie par X.

3.4 Variables aléatoires discrètes indépendantes


Définition 3.4.1 (Variables aléatoires discrètes indépendantes). Soit (Ω, A , P) un espace probabilisé. Deux variables aléa-
toires discrètes X et Y sont indépendantes lorsque pour a ∈ X(Ω) et b ∈ Y (Ω), on a :

P(X = a,Y = b) = P(X = a)P(Y = b).

Plus généralement, n variables aléatoires discrètes X1 , ...,Xn sont indépendantes si et seulement si pour tout x1 , ..., xn ∈ R
nous avons
P(X1 = x1 , ..., Xn = xn ) = P(X1 = x1 ) × ... × P(Xn = xn ).

4
3.5 Espérance, variance et écart type des variables aléatoires discrètes
3.5.1 Variable aléatoire discrète L1 et espérance
On rappelle que :
– une série ∑n∈N un de nombres réels est absolument convergente si et seulement si la série ∑n∈N |un | est convergente.
– une série absolument convergente est convergente.
– une série absolument convergente est commutativement convergente.

Remarque 3.5.1. Par exemple une série semi-convergente peut ne pas être commutativement convergente. Par exemple la
série harmonique
(−1)n+1 1 1 1
∑ n = 1 − 2 + 3 − 4 + ... = ln(2)
n≥1

alors que
1 1 1 1 1 3
1 + − + + − + ... = ln(2).
3 2 5 7 4 2
Intuitivement l’espérance d’une variable aléatoire discrète est la moyenne de ses valeurs pondérées par leur probabilité
d’obtention. Considérons deux cas particuliers.

• Supposons Ω fini et X une variable aléatoire (nécessairement finie). On définit l’espérance de X par

E(X) = ∑ P({ω})X(ω).
ω∈Ω

Cette somme est finie.


• Supposons Ω dénombrable et X une variable aléatoire (nécessaierment discrète). On définit l’espérance de X par

E(X) = ∑ P({ω})X(ω),
ω∈Ω

sous réserve que cette série soit absolument convergente. Noter que sur Ω il n’y a à priori pas d’ordre ! Ainsi supposer que
cette série soit absolument convergente et pas uniquement convergente garantit que cette définition est bien posée, c’est à
dire indépendante de la manière de sommer sur les éléments de Ω.

Remarque 3.5.2. Remarquons que l’on peut réécrire l’espérance de la manière suivante :

E(X) = ∑ P(X = x)x.


x∈V

En effet, il suffit de partitionner Ω comme réunion disjointe des fibres X −1 (x) de X :

X −1 (x).
G
Ω=
x∈R

La remarque provient donc de la commutativité de la série et de l’additivité de la probabilité.

Fort de cette remarque il est alors naturel de définir l’espérance d’une variable aléatoire comme suit

Définition 3.5.3 (Variable aléatoire L1 et espérance). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire discrète X
ayant pour valeurs (xn ) sera dîte L1 si et seulement si la série de ∑n∈N xn P(X = xn ) est absolument convergente. En ce cas
l’espérance de X est
E(X) = ∑ P(X = xn )xn .
n∈N

5
Théorème 3.5.4 (Théorème de transfert). Soit X une variable aléatoire discrète de valeurs (xn ) et ϕ : R → R une fonction
alors Y = ϕ(X) est une variable aléatoire discrète L1 et d’espérance

E(Y ) = E(ϕ(X)) = ∑ ϕ(xn )P(X = xn ),


n∈N

sous réserve que cette dernière série soit absolument convergente.

Démonstration. Remarquons tout d’abord que l’ensemble des valeurs de Y est dénombrable car il est l’image par ϕ de
l’ensemble des valeurs de X qui est lui-même dénombrable. On note (y j ) l’ensemble des valeurs de Y . Notons

E j = {i ∈ I | ϕ(xi ) = y j }.

La famille (E j ) est une partition de N.


Remarquons alors que
P(Y = y j ) = ∑ P(X = xi ).
i∈E j

Nous avons ainsi obtenu la loi de Y . Remarquons alors que par commutativité due à l’absolue convergence de la série
∑i∈N ϕ(xi )P(X = xi ) et par additivité nous avons les égalités
!
∑ ϕ(xi )P(X = xi ) = ∑ y j ∑ ϕ(xi )pi = ∑ y j P(Y = y j ),
i∈N j∈J i∈E j j∈J

ce qui montre que Y est L1 et prouve la formule par définition l’espérance de Y .

Proposition 3.5.5. Soit (Ω, A , P) un espace probabilisé. Soit X et Y deux variables aléatoires discrètes.
La notion d’espérance vérifie les propriétés suivantes :
1. X est L1 si et seulement si |X| est L1 et nous avons

|E(X)| ≤ E(|X|).

2. Si |X| ≤ Y et Y est L1 alors X est L1 .


3. Si −∞ < a ≤ X ≤ b < +∞ alors a ≤ E(X) ≤ b.
4. Si X = a presque sûrement alors E(X) = a.
5. Si X et Y sont L1 alors pour tout réel λ et µ, la variable aléatoire λX + µY est encore L1 et l’on a

E(λX + µY ) = λE(X) + µE(Y ).

6. Si X ≥ 0 et X et L1 alors E(X) ≥ 0.
7. Si X ≥ Y et X et Y sont L1 alors E(X) ≥ E(Y ).
8. Si X et Y sont L1 et X = Y presque sûrement alors E(X) = E(Y ).
9. Si X et Y sont L1 et indépendantes alors E(XY ) = E(X)E(Y ).

Démonstration. Soit X et Y deux variables aléatoires discrètes avec pour valeurs (xn ) et (yn ).
1. L’equivalence entre “X est L1 ” et “|X| est L1 ” résulte directement de la définition. Supposons alors X de classe L1 .
Considérons les sommes partielles nous avons par inégalité triangulaire pour tout N

N N
∑ xn P(X = xn ) ≤ ∑ |xn | P(X = xn )

n=0 n=0

En passant à la limite nous obtenons alors


|E(X)| ≤ E(|X|).

6
2. Supposons X de classe L1 avec −∞ < a ≤ X ≤ b < +∞. Par application de la définition nous déduisons
N N N
∑ aP(X = xn ) ≤ ∑ xn P(X = xn ) ≤ ∑ bP(X = xn ),
n=0 n=0 n=0

en passant à la limite et en utilisant le fait que ∑Nn=0 P(X = xn ) = 1 nous obtenons le résultat.
3. Si X = a presque sûrement alors pour toute valeur x 6= a de X, P(X = x) = 0 et P(X = a) = 1. Donc par définition
E(X) = a.
4. Considérons la variable aléatoire λX + µY . Les valeurs de cette variable sont notées zk = λxi + µy j . Notons que

P(Z = zk ) = ∑ P(X = xi ,Y = y j )
(i, j)∈Ek

où Ek = {(i, j) | λxi + µy j = zk }. Du point de vue formel considérons les égalités suivantes

∑ zk P(Z = zk ) = ∑ ∑ (λxi + µy j )P(X = xi ,Y = y j ).


k∈N k∈Z (i, j)∈Ek

Par conséquent nous avons

∑k∈N zk P(Z = zk ) = ∑i∈N ∑ j∈N (λxi + µy j )P(X = xi ,Y = y j )

= λ ∑i∈N ∑ j∈N xi P(X = xi ,Y = y j ) + µ ∑i∈N ∑ j∈N y j P(X = xi ,Y = y j )



= λ ∑i∈N xi ∑ j∈N P(X = xi ,Y = y j ) + µ ∑ j∈N y j (∑i∈N P(X = xi ,Y = y j ))

= λ ∑i∈N xi P(X = xi ) + µ ∑ j∈N y j P(Y = y j ).

Le point essentiel est l’égalité pour tout i ∈ N :

∑ P(X = xi ,Y = y j ) = P(X = xi ).
j∈N

En effet cela résulte de la partition G


(X = xi ) = (X = xi ) ∩ (Y = y j ),
et de l’additivité de la loi de probabilité. Notons aussi que nous avons utilisé un échange de Σ, là encore le fait que la
série soit commutativement convergente est primordial !
Conclusion : la série ∑k∈Z zk P(Z = zk ) est une série absolument convergente et nous avons la formule

E(λX + µY ) = λE(X) + µE(Y ).

5. Si X est L1 et X ≥ 0 alors par définition

E(X) = ∑ xP(X = x) ≥ 0.
x valeur de X

6. Ce point découle du précédent en utilisant X −Y et en appliquant la linéarité de l’espérance E.


7. Si X et Y sont égaux presque sûrement alors X − Y est nul presque sûrement, par le point précédent nous avons
E(X −Y ) = 0 et par la linéarié nous obtenons l’égalité souhaitée.
8. Soit X et Y deux variables aléatoires L1 et indépendantes. Notons (zk ) l’ensemble des valeurs de la variable aléatoire
Z = XY . Nous avons
∑ zk P(Z = zk ) = ∑ ∑ xi y j P(X = xi ,Y = y j ),
k∈N k∈N (i, j)∈Ek

avec Ek = {(i, j) | xi y j = zk }. Remarquons que par définition de l’indépendance des variables aléatoires nous avons

P(X = xi ,Y = y j ) = P(X = xi )P(Y = y j ).

7
Par produit de Cauchy de série absolument convergente nous obtenons alors

∑ zk P(Z = zk ) = ∑ xi P(X = xi ) ∑ y j P(Y = y j ).


k∈N i∈N j∈N

Ce qui montre que Z est bien L1 et la formule souhaitée.

8
3.5.2 Variable aléatoire discrète L2 , variance et écart-type
Définition 3.5.6 (Variable aléatoire discrète L2 ). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire discrète X à
valeurs dans V est dite L2 si et seulement si la série ∑x∈V P(X = x)x2 est convergente.
Remarque 3.5.7. Si une variable X est L2 alors elle est L1 . Ceci résulte de l’inégalité |x| ≤ 12 (x2 + 1)
Nous avons
(X − E(X))2 = X 2 − 2E(X)X + E(X)2
Si X est L2 alors X 2 est L1 et X est L1 on en déduit donc que (X − E(X))2 est L1 .
Définition 3.5.8 (Variance d’une variable aléatoire discrète L2 ). Soit (Ω, A , P) un espace probabilisé. Soit X une variable
aléatoire discrète L2 . La variance de X notée var(X) désigne la somme de la série

var(X) = E(X 2 ) − (E(X))2 = E (X − E(X))2


 

c’est à dire
var(X) = ∑ P(X = xk )(xk − E(X))2 ,
k

où (xk ) sont les valeurs de X.


L’écart type de X, noté σ(X) est la racine carrée de la variance
p
σ(X) = var(X).

La variance mesure la dispersion d’une variable aléatoire autour de sa moyenne en considérant la moyenne des carrés
des écarts entre X et son espérance E(X). Ainsi, plus la variable aléatoire est étalée autour de sa moyenne plus sa variance
est grande. Si X est une grandeur physique remarquons que l’écart-type de X a la même grandeur physique que X ce qui la
rend plus parlante en pratique.
Proposition 3.5.9. Si X et Y sont deux variables aléatoires indépendantes alors la variance vérifie

var(X +Y ) = var(X) + var(Y )

Démonstration. En effet nous avons

var(X +Y ) = E((X +Y )) − (E(X +Y ))2 = E(X 2 ) + 2E(XY ) + E(Y )2 − E(X)2 − 2E(X)E(Y ) − E(Y )2

or les variables X et Y sont indépendantes donc E(XY ) = E(X)E(Y ) donc

var(X +Y ) = E(X 2 ) − E(X)2 + E(Y 2 ) − E(Y )2 = var(X) + var(Y ).

Par l’inégalité X 2 +Y 2 ≥ 2XY nous vérifions que X et Y de classe L2 entraîne XY de classe L1 .


Définition 3.5.10 (Covariance). Soit (Ω, A , P) un espace probabilisé. Soit X et Y deux variables aléatoires discrètes L2 . La
covariance de X et Y notée cov(X,Y ) est définie comme la somme de la série

cov(X,Y ) = E[(X − E(X))(Y − E(Y ))] = E(XY ) − E(X)E(Y ).

Proposition 3.5.11. Soit (Ω, A , P) un espace probabilisé. Soit X et Y deux variables aléatoires discrètes L2 . On a

var(X +Y ) = var(X) + var(Y ) + 2cov(X,Y ).

Lorsque la covariance est nulle les deux variables sont dites non corrélées. Cette propriété est plus faible que l’indépen-
dance :
X et Y sont indépendantes ⇒ cov(X,Y ) = 0.

9
La réciproque est fausse. En effet considérons X la loi uniforme sur {−1, 0, 1} et Y = X 2 . Nous avons

1 1
E(XY ) = E(X 3 ) = (−1)3 + 0 + 13 = 0 et E(X) = 0
3 3
Par conséquent nous avons E(XY ) = E(X)E(Y ) = 0. Or ces variables ne sont pas indépendantes !

Définition 3.5.12. Pour mesurer la corrélation on définit le coefficient de corrélation

cov(X,Y )
ρX,Y = .
σ(X)σ(Y )

3.5.3 Inégalité de Bienaymé-Tchebychev


Proposition 3.5.13 (Inégalité de Bienaymé-Tchebychev). Soit (Ω, A , P) un espace probabilisé. Soit X une variable aléatoire
discrète L2 . Soit a un nombre réel strictement positif, alors :

Var(X)
P(|X − E(X)| ≥ a) ≤ .
a2
Démonstration. En effet nous avons pour une variable aléatoire Y de classe L2 , pour toute valeur a > 0

|Y | ≥ a ⇔ |Y |2 ≥ a2 .

Donc
a2 1|Y |≥a = a2 1|Y |≥a2 ≤ |Y |2 .
En passant à l’espérance on en déduit
E(Y 2 )
P(|Y | ≥ a) ≥ .
a2
On applique alors ce résultat à Y = |X − E(X)| ce qui donne le résultat.

Corollaire 3.5.14. Soit (Ω, A , P) un espace probabilisé. Soit X une variable aléatoire discrète L2 de variance non nulle. On
a alors pour tout a > 0
1
P (|X − E(X)| ≥ aσ(X)) ≤ 2 .
a
1
Ainsi la probabilié qu’une variable aléatoire s’éloigne de s unités d’écart-type de sa moyenne est inférieure à s2
.

Remarque 3.5.15. Cette inégalité est vérifiée pour toute variable aléatoire X et elle a des applications théoriques importantes
par exemple dans la preuve de la loi des grands nombres. Néanmoins en pratique cette mojoration est trop ample !

10
3.6 Quelques lois de probabilité discrètes usuelles
Définition 3.6.1 (Loi de Bernouilli). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire X suit la loi de Bernouilli
de paramètre p lorsque elle prend la valeur 1 avec une probabilité p et la valeur 0 avec une probabilité 1 − p. On a
E(X) = p, var(X) = p(1 − p).
Exemple 3.6.2. On jette une pièce dont la probabilité d’appartition d’un Pile est 2/3. On appelle X la variable aléatoire qui
vaut 0 si on obtient Face et 1 si obtient Pile.
Définition 3.6.3 (Loi Binomiale). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire X suit la loi de binomiale de
paramètres n, p lorsqu’elle est somme de n variable aléatoires de Bernouilli indépendantes de paramètre p : En particulier
∀k ∈ {1, ..., n}, P(X = k) = Cnk pk (1 − p)n−k .
On a
E(X) = np, var(X) = np(1 − p).
Exemple 3.6.4. On lance n fois de suite une pièce équilibrée et on note X la somme des résultats obtenus avec la convention
0 pour Face et 1 pour Pile.
Définition 3.6.5 (Loi hypergéométrique). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire X suit la loi hyper-
géométrique de paramètres N, n, p lorsqu’elle vérifie
n−k
CNk pCN(1−p)
∀k ∈ {1, ..., n}, P(X = k) = .
CNn
On a
N −n
E(X) = np, var(X) = np(1 − p) .
N −1
Exemple 3.6.6 (tirage sans remise). Une urne contient N boules, dont S sont vertes. On note p = NS la proportion de boules
vertes. Lorsque l’on prend au hasard n boules dans E sans les remettre, la variable aléatoire X égale au nombre de boules
vertes parmi ces n boules suit la loi hypergéométrique H(N, n, p).
Définition 3.6.7 (Loi uniforme). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire X suit la loi uniforme sur
{1, ..., n} lorsqu’elle vérifie
1
∀k ∈ {1, ..., n}, P(X = k) = .
n
En ce cas on a
n+1 n2 − 1
E(X) = , var(X) = .
2 12
Exemple 3.6.8. On jette un dé équilibré et on appelle X le résultat du lancer.
Définition 3.6.9 (Loi géométrique). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire X suit la loi géométrique
de paramètres p avec 0 < p < 1, lorsqu’elle prend ses valeurs dans N∗ avec la probabilité
P(X = k) = p(1 − p)k .
On a alors
1− p 1− p
E(X) = , var(X) = 2 .
p p
Exemple 3.6.10. On lance un dé équilibré et on appelle X la variable correspondant à la première apparition du numéro 1.
Définition 3.6.11 (Loi de Poisson). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire X suit une loi de Poisson
P (λ) de paramètre λ > 0 lorsqu’elle prend ses valeurs dans N avec la probabilité
λk
P(X = k) = e−λ .
k!
On a alors
E(X) = λ, var(X) = λ.
Exemple 3.6.12. Modélisation de taux d’arrivée dans des situations de file d’attente.

11

Vous aimerez peut-être aussi