Vous êtes sur la page 1sur 19

VARIABLES ALÉATOIRES

Exemple 1
Table des matières
On considère l’expérience aléatoire qui consiste en le jet d’un dé
1 Langage de base 1
10 fois. On lui fait correspondre l’univers :
2 Loi de probabilité 2
3 Fonction de répartition 2 Ω = |[1, 6]|10 = {w = (xk )k =1,..,10 , xk ∈ |[1, 6]|}
4 Variable aléatoire discrète 3
1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 3 T = P (Ω)
2 Lois discrètes usuelles classiques : Rappel . . . 5
3 Couple de variable aléatoires discrètes : loi muni de la probabilité uniforme Une variable aléatoire sur (Ω, T , P )
conjointe, loi marginale . . . . . . . . . . . . . . . . 7 est par exemple :
5 Variable aléatoire à densité 7 
Ω −→ R
1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 7 
10
X: X
2 Fonction d’une variable aléatoire continue . . 8  w = (x1 , ..., x10 ) → xk
2.1 calcul de densités pour Y = |X |, . . . . . 8 k =1
2.2 calcul de densités pour Y = a X + b , . . 8
ou par exemple
2.3 calcul de densités pour Y = X 2 , . . . . . 8
2.4 calcul de densités pour Y = e X , . . . . . 9 
Ω −→ R
3 Lois continues usuelles . . . . . . . . . . . . . . . . . 9
 ¨
Y : 1, s’il existe k , xk = 1
6 Indépendance de variables aléatoires 10  w = (x1 , ..., x10 ) →
7 Loi de la somme et stabilité 11 0 sinon
1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . 12
Remarque 1
8 Espérance, moment 13
1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Si A est une partie de la tribu borélienne BR qui est obtenu par
2 Transferts . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 conséquent par passage au compléménetaire, par réunion, par in-
3 Propriétés de l’éspérance . . . . . . . . . . . . . . . 13 tersection au plus dénombrable d’intervalle de la forme ] − ∞, x ],
4 Moments d’ordre 2, variance convariance . . . 14 alors ”X ∈ A” est bien un événement de T . En particulier :
9 Fonctions génératrices 17 ”X > a ” = X ≤ a ”X < a ” = ””X ≥ a ”
10 Présentation de la fonction caractéristique : ”X ≥ a ” = ∩ ”X > a − k1 ” ”X > a ” = ” ∪ ”X ≥ a + k1 ”
transformée de Fourier, de Laplace 18 k ∈N∗ k ∈N∗
”X ∈]a , b ]” = ”X ≤ b \X ≤ a ” ”X ∈ [a , b [” = ”X < b \x < a ”
11 Convergences 18
”X ∈ [a , b ]” = ”X ≤ b \X < a ” ”X ∈]a , b [” = ”X < b \x ≤ a ”
12 Tableau récapitulatif de toutes les lois, leurs
espérances, variances 19
Proposition 1.1
Une application X : Ω → R est une variable aléatoire réelle sur (Ω, T , P )
si, et seulement si :
1 Langage de base
∀x ∈ R, X −1 (] − ∞, x [) ∈ T

Définition 1.1 Le sens direct découle du fait que


On appelle variable aléatoire sur l’espace probabilisé (Ω, T , P ) toute
1
application : ”X < x ” = ∪ ”X ≤ x − ”
n∈N∗ n
X :Ω→R
et le fait qu’une tribu est invariable par intersection dénombrable.
vérifiant :
−1
Le sens indirect découle du fait :
∀x ∈ R : X (] − ∞, x ]) ∈ T
1
”X ≤ x ” = ∩ ”X < x + ”
n∈N∗ n
Notation : A ⊂ R :
l’ensemble X −1 (A) = {w ∈ Ω, X (w ) ∈ A} est noté "X ∈ A", comme ça
Remarque 2
l’événement X −1 (] − ∞, x ]) sera noté :
On peut voir cette proposition comme étant une conséquence du fait
X −1 (] − ∞, x ]) = ”X ≤ x ” qu’une tribu est stable par complémentation, union ou intersection
dénombrable et du fait que la tribu borélienne déja engendrée par les
intervalles de la forme ]−∞, x ] est aussi engendrée par les intervalles
de la forme ] − ∞, x [.
Exemples 1 De cette façon on peut dire aussi qu’une application X : Ω → R
est une variable aléatoire si et seulement pour tout intervalle J
1. Pour T = P (Ω), toute application X : Ω → R est une variable de R, X −1 (J ) ∈ T
aléatoire réelle sur (Ω, T , P ) . Donc, dans le cas où Ω est dé-
nombrable, en prenant T = P (Ω) pour tribu d’événements,
Proposition 1.2
toute application X : Ω → R est une variable aléatoire.
Si X est une application de Ω vers R, telle que X (Ω) est dénombrable.
2. Si A ∈ T , alors la fonction indicatrice de A, χA est une varibale Alors :
aléatoire réelle. X est une variable aléatoire si et seulement si pour tout x ∈ R, X −1 {x }
En effet , pour tout x ∈ R, suivant l’appartenance de 0 et ou 1 est un élément de la tribu.
à ] − ∞, x ], X −1 (] − ∞, x ]) = ;, A, A ou Ω, qui sont bien des
éléments de la tribu.
Preuve

Le singleton est un intervalle, le sens direct se déduit de cette propriété.


Inversement, si J est un intervalle de R, alors X J = X −1 (J ∩ X (Ω)).

s.hajmi@gmail.com 1
VARIABLES ALÉATOIRES

J ∩ X (ω) sera lui aussi dénombrable, on écrit J ∩ X (Ω) = {xk , k ∈ I }, avec I ∈ N


Preuve
X −1 = ∪ X −1 {xk } sera donc un élément de la tribu.
k ∈I
”f ◦ X ≤ a ” = {w, f ◦ X (w ) ≤ a } = {w, X (w ) ∈ f −1 (] − ∞, a ]}

Proposition 1.3 f est monotone, donc f −1 (] − ∞, a ]) est aussi un intervalle, et donc ” f ◦ X ≤ a ” ∈


T.
Si X est une variable aléatoire, alors |X | est aussi une variable aléatoire.
Remarque 3

Preuve Ce résultat s’étend au cas de fonctions monotones par morceaux.

Vient du fait que :


(|X | ≤ a ) = (−a ≤ X ≤ a ) Proposition 1.6
Si (X n )n est une suite de variables aléatoires qui converge simplement
Proposition 1.4 vers une fonction X : Ω → R, alors X est une variable aléatoire.
L’ensemble (V , Ω, T ) des variables aléatoires sur (Ω, T ) est une R
algèbre.
Preuve

Soit w ∈ X −1 (] − ∞, a ]).

Preuve 1
lim X n (w ) = X (w ) =⇒ ∀m ∈ N∗ , ∃N ∈ N, ∀n ≥ N , X n (w ) ≤ X (w ) +
n→+∞ m
Les deux applications ω → 0 et ω → 1 sont bien des variables aléatoires.
X 1 , X 2 deux variables aléatoires définies sur l’espace probabilisé (Ω, T , P ). λ ∈ R. 1
=⇒ ∀m ∈ N∗ , ∃N ∈ N, ∀n ≥ N , X n (w ) ≤ a +
1. Soit x ∈ R m
Soit ω ∈ (X 1 +X 2 )−1 (]−∞, x [), donc X 1 (ω) < x −X 2 (ω). Soit rω un rationnel 1
entre les deux. =⇒ w∈ ∩ ∪ ∩ X n−1 (] − ∞, a + ])
m∈N∗ N ∈Nn≥N m
On a donc X 1 (ω) < rω et X 2 (ω) < x − rω . Ce qui fait que
 Réciproquement si w ∈ ∩ ∪ ∩ X n−1 (] − ∞, a + m1 ]), alors :
ω ∈ ∪ X 1−1 (] − ∞, r [) ∩ X 2−1 (] − ∞, x − r [) m ∈N∗ N ∈Nn≥N
r ∈Q ∀m ∈ N , ∃N ∈ N, ∀n ≥ N , X n (w ) ≤ a + m1 .

En faisant tendre n vers +∞, on aura X (w ) ≤ a + m1 , et ceci pour tout m ∈ N∗ ,


La réciproque est vérifiable. en faisant tendre m vers +∞ on obtient X (w ) ≤ a . par stabilité par réunion et
 intersetion dénombrable, on aura ”X ≤ a ” ∈ T .
(X 1 + X 2 )−1 (] − ∞, x [) = ∪ X 1−1 (] − ∞, r [) ∩ X 2−1 (] − ∞, x − r [)
r ∈Q

Q étant dénombrable donc (X 1 + X 2 )−1 (] − ∞, x [) est bien un événement.


2. Soit x ∈ R, on évite le cas trivial λ = 0.
Selon le signe de λ, on a (λX 1 )−1 (]−∞, x ]) = X 1−1 (]−∞, λx ] ou X 1−1 ([ λx , +∞[. 2 Loi de probabilité
dans les deux cas c’est bien un événement.
2 2
3. En écrivant X 1 X 2 = (X 1 +X 2 ) −(X
4
1 −X 2 )
, il nous suffit de montrer que le carré
d’une variable aléatoire est une variable aléatoire.
Soit X une variable aléatoire et x ∈ R. Selon de signe de x , on a : Définition 2.1
 (Ω, T , P ) un espace probabilisé, on appelle loi de la variable aléatoire
(X < x ) = ;, si x ≤ 0
2
p p X (relativement à P ) l’application :
(X 2 < x ) = (X < x ) ∩ (X > − x ), si x > 0

Dans tous les cas (X 2 < x ) reste un événement. I (R) −→ R
PX :
J → P (X ∈ J )
Corollaire 1.1
où I (R) désigne toujours l’ensemble des intervalles de R.
Si (X 1 , .., X k ) est une famille finie de variables aléatoires réelles définie
sur le même espace probabilisé (Ω, T , P ), alors
k
X k
Y Remarque 4
min(X 1 , ..., X k ), max(X 1 , .., X k ), Xi , Xi
i =1 i =1
X une variable aléatoire sur un espace probabilisé (Ω, T , P ).
sont des variables aléatoires. Cette définition de loi de probabilité peut s’étendre à toute la tribu
borélienne BR en posant pour tout A ∈ BR :
Le théorème suivant donne une généralisation de ces résultats
PX (A) = P (X ∈ A)

Théorème 1.1 - admis Elle constituera une probabilité sur (R, BR ).


Interprétation de cette formule : on peut tirer au sort un élément
Si (X 1 , .., X k ) est une famille finie de variables aléatoires réelles définie ω ∈ Ω selon la règle donnée par P , puis prendre son image par X . Il
sur le même espace probabilisé (Ω, T , P ) et si f : Rk → R est une revient au même de tirer directement au sort un x ∈ R selon la règle
application continue. de tirage au sort donnée par PX .
Alors l’application composée f (X 1 , ..., X k ) :

Ω −→ R
w → f (X 1 (w ), X 2 (w ), ..., X k (w )) Définition 2.2
(X 1 , .., X k ) un système de variables aléatoires réelles sur (Ω, T , P ). On
est aussi une variable aléatoire.
appelle loi du système (X 1 , .., X k ) l’application :

I (R)k
(
Corollaire 1.2 −→ R
Si X est une variable aléatoire et f : R → R continue, alors f ◦ X est PX 1 ,..,X k : k
(J1 , ..., Jk ) → P ( ∩ (X i ∈ Ji )) = P (X 1 ∈ J1 , ..., X k ∈ Jk )
aussi une variable aléatoire. i =1

Proposition 1.5
Si X est une variable aléatoire réelle sur l’espace probabilisé (Ω, T , P ) 3 Fonction de répartition
et f : R → R une fonction monotone, alors l’application composée
f ◦ X est une varibale aléatoire.

s.hajmi@gmail.com 2
VARIABLES ALÉATOIRES

Définition 3.1 Corollaire 3.1


X une varibale aléatoire sur un espace probabilisé (Ω, T , P ) ; on appelle FX est continue en a si et seulement si P (X = a ) = 0
fonction de répartition de X la fonction :

R −→ R
FX :
t → P (X ≤ t ) 4 Variable aléatoire discrète

1.4
1 Généralités
Propriétés 3.1
1. FX est une fonction croissante.
Définition 4.1
2. FX est continue à droite en tout point. Une variable aléatoire X est dite discrète (relativement à P ) s’il existe
3. lim FX (x ) = 0, lim FX (x ) = 1 Ω0 ∈ T un événement presque sûr tel que : D = X (Ω0 ) soit un ensemble
x →−∞ x →+∞
au plus dénombrable.
Elle est dite étagée si X (Ω0 ) est fini.
Preuve
Remarque 6
1. Pour t ≤ t 0 , on a : ”X ≤ t ” =⇒ ”X ≤ t ”, et comme P est croissante, donc
P (X ≤ t ) ≤ P (X ≤ t 0 ).
En supprimant de D tous les éléments x tel que P (X = x ) = 0, les x
2. Comme FX est croissante il suffit de montrer que pour tout t ∈ R,
restants sont appelés les valeurs possibles de X .
1
lim FX (t + ) = FX (t )
n→+∞ n Remarque 7
Or La variable aléatoire X est discrète, si on peut ranger les valeurs
1 1
0 ≤ P (X ≤ t + ) − P (X ≤ t ) = P (t < X ≤ t + ) possibles de X en une suite (xk )k ∈N .
n n
A n = ”t < X ≤ t + n1 , (A n ) est une suite d’événements décroissante, d’après
Elle est finie si ces valeurs possibles sont au nombre fini.
le théorème de limite monotone
Proposition 4.1
lim P (A n ) = P ( ∩ ∗ A n ) = P (;) = 0
n →+∞ n∈N Si X est une variable aléatoire discrête, alors ∀A ⊂ R.
X
3. le théorème de limite monotone appliqué respectivement aux suites P (X ∈ A) = P (X = x )
(X ≤ −n )n et (X ≤ n ), donne
x ∈A
En particulier FX (x ) = k ,xk ≤x P (X = xk ).
P
lim FX (t ) = lim P (X ≤ −n ) = P ( ∩ ”X ≤ −n) = P (;) = 0
t →−∞ n→+∞ n∈N
La loi de probabilité d’une variable aléatoire discrète est parfaite-
lim FX (t ) = lim P (X ≤ n) = P ( ∪ ”X ≤ n ”) = P (Ω) = 1 ment déterminée par les valeurs (P (X = x ) x ∈X (Ω0 ) ]
t →+∞ n→+∞ n ∈N

Proposition 3.1 - Règles de calcul Preuve


1. P (X > a ) = 1 − FX (a ).
P (X ∈ A) = P (X ∈ A ∩ X (Ω0 )) + P (X ∈ A ∩ X (Ω0 )),
2. P (X ≥ a ) = 1− lim− FX (x ). (X ∈ A ∩ X (Ω0 )) ⊂ (X ∈ X (Ω0 )) = X −1 (X (Ω0 )) = X −1 X (Ω0 ) ⊂ Ω0
x →a
Donc P (X ∈ A ∩ X (Ω0 )) = 0, et P (X ∈ A) = P (X ∈ A ∩ X (Ω0 )).
3. P (x < a ) = lim− FX (x ). ”A ∩ X (Ω0 ) est dénombrable, A ∩ X (Ω0 ) = {xk , k ∈ N} = ∪ {xk }”.
k ∈N
x →a +∞
4. P (a < X ≤ b ) = FX (b ) − FX (a ). P (X ∈ A) = P (X = xk ) = P (X = x ).
P P
x ∈A
k =0

5. P (a ≤ X ≤ b ) = FX (b )− lim− FX (x ).
x →a
Propriété 4.1
6. P (a ≤ X < b ) = lim FX (x )− lim− FX (x ).
x →b − x →a Si X est étagée avec X (ω0 ) = {x1 , ..., xn } où x1 < x2 < ... < xn , alors la
7. P (a < X < b ) = lim FX (x ) − FX (a ) fonction de répartition FX est une fonction en escaliers croissante,
x →b − nulle sur ] − ∞, x1 [ , égale à 1 sur [xn , +∞[ et :
8. P (X = a ) = FX (a )− lim− FX (x ). ¨
P (X = x1 ) = FX (x1 )
x →a
P (X = xk ) = FX (xk ) − FX (xk −1 ) 2 ≤ k ≤ n

Preuve

1. P (X > a ) = 1 − P (X ≤ a ). Preuve

2. P (X ≥ a ) = P ( ∩ ∗ X > a − ) = lim P (X > a − ) = 1− lim FX (a − ) =


1
n
1
n
1
n Conséquence immédiate des résultats de la proposition précédente.
n∈N n →+∞ n →+∞
1− lim∗ FX (x )
x →a

3. P (X < a ) = 1 − P (X ≥ a ) = lim− FX (x ). Définition 4.1


x →a

4. P (a < X ≤ b ) = P (X ≤ b \X ≤ a ) = FX (b ) − FX (a ). On dit que la loi de X est discrète usuelle s’il existe un intervalle J de Z
5. P (a ≤ X ≤ b ) = P (X ≤ b \X < a ) = FX (b )− lim− FX (x ). et une bijection croissante :
x →a

6. P (a ≤ X < b ) = P (X < b ) − P (X < a ) = lim FX (x )− lim− FX (x ) J −→ D
x →b − x →a
ϕ:
7. P (a < X < b ) = P (X < b ) − P (X ≤ a ) = lim FX (x ) − FX (a ) k → xk
x →b −

8. P (X = a ) = P (X ≤ a ) − P (X < a ) = FX (a )− lim− FX (x ).
x →a

Remarque 8
Remarque 5
Toute loi finie est usuelle.
La fonction de répartition caractérise complétement la loi de proba-
bilité.

s.hajmi@gmail.com 3
VARIABLES ALÉATOIRES

Exemple 2 La loi de X est donc représentée par le tableau suivant :


x 1 2 3 4
7 7 7 1
P (X = x ) 10 30 120 120
Considérons le jet d’un dé bleu et d’un dé rouge et notons S la
variable aléatoire qui consiste en la somme des points obtenus. On Exercice 2
modélise cette expérience en prenant l’équiprobabilité sur :
Montrer que si X est une variable aléatoire réelle discrète sur
Ω = {1, 2, 3, 4, 5, 6}2 (Ω, P (Ω), P ) et f une application de R dans R, on a alors :
X
Un événement élémentaire ω est un couple (b , r ) où b désigne f ◦X = f (x )χX −1 (x )
le résultat du dé bleu et r celui du rouge. Pour tout événement x ∈X (Ω)

élémentaire ω = (b , r ), on a
Solution On a X (Ω) = {xi |i ∈ I } où I est une partie de N.
S (Ω) = b + r
Pour tout ω ∈ Ω, il existe un indice k ∈ I tel que X (Ω) = xk et :
Il est facile de représenter tous les cas possibles par un tableau à X
f (xi )χX −1 ({xi }) (ω) = f (xk ) = f ◦ X (ω)
36 cases. i ∈I
1 2 3 4 5 6
Exercice 3
1 2 3 4 5 6 7
2 3 4 5 6 7 8 Un concours de tir au pistolet entre deux compétiteurs A et B est
3 4 5 6 7 8 9 constitué d’une suite d’épreuves consistant, pour chacun des com-
4 5 6 7 8 9 10 pétiteurs, en un tir visant à atteindre une cible. Les deux compé-
5 6 7 8 9 10 11 titeurs tirent simultanément, chacun d’eux disposant de sa cible
6 7 8 9 10 11 12 personnelle. On associe à ce concours une expérience aléatoire. On
suppose que toutes les épreuves sont mutuellement indépendantes
On a ainsi défini une application S de Ω dans l’ensemble des et que pour chaque épreuve :
sommes de points possibles : {2, 3, ..., 11, 12}. — le compétiteur A a la probabilité de 23 de toucher sa cible ;
En fait, l’observation qui nous intéresse dans cette expérience, ce — le compétiteur B a la probabilité 21 de toucher sa cible ;
n’est pas ω, mais seulement S (ω). Ce que l’on aimerait connaître, — les résultats obtenus par A et B sont indépendants.
c’est la probabilité que la somme des points prenne une valeur À l’issue de chaque épreuve, il faut avoir touché sa cible pour être
donnée, soit P (S = k ) pour k entier fixé entre 2 et 12. En utilisant autorisé à poursuivre le concours, sinon on est éliminé. Le concours
l’équiprobabilité sur Ω la loi de probabilité d’une variable aléatoire cesse lorsque les deux compétiteurs ont été éliminés.
discrête peut être représentée par un tableau comme suit. Pour tout entier n ≥ 1, on considère les événements suivants :
A n : à l’issue de l’épreuve n, seul A n’est pas éliminé ;
k 2 3 4 5 6 7 8 9 10 11 12 Bn : à l’issue de l’épreuve n, seul B n’est pas éliminé ;
1 2 3 4 5 6 5 4 3 2 1
P (S = k ) 36 36 36 36 36 36 36 36 36 36 36 Cn : à l’issue de l’épreuve n, aucun compétiteur n’est éliminé ;
Dn : à l’issue de l’épreuve n, les deux compétiteurs sont éliminés ;
C0 est l’événement certain et A 0 , B0 , D0 sont impossibles.
Exercice 1
1. Calculer
 les probabilités suivantes :
Une urne contient 10 boules : 7 boules blanches et 3 boules noires. P (A n+1 /A n ), P (Bn+1 /A n ), P (Cn+1 /A n ), P (Dn+1 /A n )

On y effectue des tirages successifs et sans remise jusqu’à vider P (A n+1 /Bn ), P (Bn+1 /Bn ), P (Cn+1 /Bn ), P (Dn+1 /Bn )
l’urne, et on note X la va égale au rang d’apparition de la première P (A
n+1 /C n ), P (Bn+1 /C n ), P (C n +1 /C n ), P (Dn+1 /C n )

boule blanche.
Déterminer la loi de X . 2. On note X la variable aléatoire égale au numéro de l’épreuve
à l’issue de laquelle a eu lieu la première élimination.
Solution On peut complètement se passer de son utilisation, mais a) Calculer P (X = 1). On suppose dans les questions suivantes
comme même on signale que l’univers Ω ici est l’ensemble de 10- que n ≥ 2.
 ‹
arragements parmis 10 éléments (c’est donc des permutations) et X est n
b) Calculer P ∩ Ck .
la fonction qui à tout événement w = (x1 , ..., x10 ) on associe le premier k =1
rang i tel que xi soit une boule blanche. c) Calculer P (X > n ).
Nous avons X (Ω) = {1, 2, 3, 4} Notons pour tout k .
Nk : " on obtient une boule noire au kième tirage". d) En déduire P (X = n ).
Bk :" on obtient une boule blanche au kième tirage". +∞
P (X = k ).
P
e) Calculer
k =1
1. "X=1"=B1 , donc
1 n n−1
P (X = 1) = P (B1 ) = f ) Montrer que : nP (X > n)+ k P (X = k ) = P (X > k ).
P P
7 k =1 k =0
2. "X=2"=N1 ∩ B2 , donc +∞
k P (X = k ).
P
g) En déduire
3 7 7 k =1
P (X = 1) = P (N1 ∩ B1 ) = P (N1 )P (B /N1 ) = × =  
10 10 30 P (A n )
 P (Bn ) 
3. "X=3"=N1 ∩ N2 ∩ B3 , donc 3. Pour n ∈ N, on note X n = 
P (Cn ) et A ∈ M 4 (R) est la matrice

3 2 7 7 P (Dn )
P (X = 2) = P (N1 )P (N2 /N1 )P (B2 /(N1 ∩ N2 )) = × × =
10 9 8 120 de transistion définie par X n+1 = AX n .
4. "X=4"=N1 ∩ N2 ∩ N3 ∩ B4 , donc a) Déterminer A.
P (X = 4) = P (N1 )P (N2 /N1 )P (N3 /(N1 ∩ N2 ))P (B4 /(N1 ∩ N2 ∩ N3 )) b) Calculer X n en fonction de X 0 pour tout n .
3 27 1 c) Calculer lim X n .
= = n→+∞
10 9 7 120

s.hajmi@gmail.com 4
VARIABLES ALÉATOIRES

Solution Solution Soit X une variable aléatoire réelle positive sur (Ω, T , P ) et
(X n )n ∈N∗ la suite de variables aléatoires réelles sur (Ω, T , P ) définie par :


P (A n +1 /A n ) = 23 , P (Bn +1 /A n ) = 0, P (Cn +1 /A n ) = 0, P (Dn+1 /A n ) = 13

P (A n +1 /Bn ) = 0, P (Bn +1 /Bn ) = 21 , P (Cn +1 /Bn ) = 0, P (Dn+1 /Bn ) = 12
 n
n2 −1
1. X k
P (A n +1 /Cn ) = 32 × 12 = 13 , P (Bn +1 /Cn ) = 12 × 13 , P (Cn +1 /Cn ) = 23 × 21 = 13 , Xn = χA

k =0
2n n,k
P (D /C ) = 1 × 1 = 1


n +1 n 3 2 6
2. a) où :
k k +1
 ‹
2 1 1 1 1 1 2 A n ,k = ≤X < ∈T
2n 2n
P (X = 1) = P (A 1 ) + P (B1 ) + P (D1 ) = × + × + × =
3 2 2 3 2 3 3 Chaque X n est une variable aléatoire étagée positive.
b) Pour ω ∈ Ω et n > X (ω), on a 0 ≤ 2n X (ω) < n 2n , donc 0 ≤ k = [2n X (ω)] ≤
n 2n − 1 et k ≤ X (ω) < k + 1), ce qui signifie qu’il existe un unique entier
n 1 k ∈ {0, ..., n 2n − 1} tel que ω ∈ A n,k , donc X n (ω) = 2kn et
P ( ∩ Ck ) = P (C1 )P (C2 /C1 )P (C3 /C1 ∩C2 )...P (Cn /C1 ∩..∩Cn −1 ) = ( )n
k =1 3
1
c) |X (ω) − X n (ω)| < −→ 0
2n
n 1
P (X > n ) = P ( ∩ Ck ) = ( )n
k =1 3 La suite (X n )n ∈N converge simplement vers X .
Il reste à prouver que (X n )n ∈N est croissante.
d)
Pour ω ∈ Ω et n ≥ 1, on a deux possibilités.
1 1 2 Soit X (ω) < n et alors X n (Ω) = 2kn où k = [2n X (ω)], c’est à dire que k
2n ≤
P (X = n ) = P (X > n − 1) − P (X > n ) = − = X (ω) < K2+1 et :
3n −1 3n 3n n

2k +1
¨
k k 2k
2n si 2n = 2n+1 ≤ X (ω) < 2n+1
e)
n n
2X 1 X n +1 (ω) = 2k +1 2k +1 k +1 2k +2
(ω) < 2n = 2n+1
X
P (X = k ) = −→ 1 2n+1 si 2n+1 ≤ X
k =1
3 k =1
3k
Qui donne dans tous les cas X n (ω) ≤ X n +1 (ω).
f) P (X = k ) = P (X > k − 1) − P (X > k ), donc Soit X (ω) ≥ n et alors X (ω) ∈
/ A n ,k pour 0 ≤ k ≤ n 2n − 1 puisque 2n X (ω) ≥
n 2n ≥ k + 1. ce qui donne X n (ω) = 0 ≤ X n +1 (ω).
k P (X = k ) = k P (X > k − 1) − k P (X > k )
= (k − 1)P (X > k − 1) − k P (X > k ) + P (X > k − 1)
2.4
2 Lois discrètes usuelles classiques : Rappel
. En sommant, on obtient :
n −1
nP
P (X = k ) = −nP (X > n )+ P (X > k ). D’où l’égalité sou- X (Ω) P (X = k )
P
1
k =1 k =1 Loi uniforme : X ,→ U (|[1, n ]|) |[1, n ]| n
haitée.
n −1
nP −1
nP Tirage d’un objet parmis
k P (X = k ) = P (X > k ) − nP (X > n ) = 1
− 3nn .
P
g) 3k n numérotés de 1 à n. X
k =1 k =0 k =0
En faisant tendre n vers +∞, on obtient est le numéro de l’objet
tiré
+∞
3 Loi de Bernoulli X ,→ B(1, p ) {0, 1} P (X = 1) = p
X
k P (X = k ) =
k =1
2 Réalisation d’une ex- P (X = 0) = 1 − p
périence à deux issues,
3. a) (A n , Bn , Cn , Dn ) est un système complet d’événements. En uti- dont la probabilité de
lisant les formule de probabiltés totales et la question 1, on
succés est p
trouve 2
3 0 1
3 0
 Loi binomiale
1 1
Réalisation de n essais X ,→ B(n, p ) |[0, n ]| n

0 0 p k (1 − p )n −k
A= 2 6
1
k
0 0 0 indépendants d’une

3
1 11
3 26 1 expérience à deux is-
(t A est une matrice stochastique) sues, dont la probabilité
b) On diagonalise A. A = P D P −1 , avec
de succés est p , X le
nombre de succés
−1 0 −1 0 X ,→ G (p ) N∗ (1 − p )k −1 p
 
4

0 0 0
 Loi géométrique
1 0 −1 −1 0 Réalisation d’essais in-
D = 0 3 0 0 , P = 
6 0 0 1 0

0 0 0 6 dépendants d’une expé-
1 1 1 1
rience à deux issues dont

(2n − 1)3−n
 la probabilité de succés
2−n − 3−n est p . X est le temps
X n = A n X 0 = P D n P −1 X 0 = 
 
3−n d’attente du premier suc-

1 − 2n 3−n − 2−n + 3−n cées.
e −λ λk !
k
c) Loi de poisson X ,→ P (λ) N
0
 
Comptage de phéno-
0 mènes rares
lim X n =  
n →+∞ 0
1 Exercice 5: Loi Hypergéométrique
Exercice 4 Dans une population totale de N individus dont M sont de type
A et de proportion p = M N , on prélève au hasard un échantillon
Une variable aléatoire réelle positive sur (Ω, T , P ) est limite d’une
de n personnes (tirage sans remise). Soit X le nombre aléatoire
suite croissante de variables aléatoires réelles étagées positives.
d’individus de type A dans l’échantillon. Montrer que la loi de X est
M N −M
 
k × n−k
P (X = k ) = N
 si 0 ≤ k ≤ M , 0 ≤ n − k ≤ N − M
n

s.hajmi@gmail.com 5
VARIABLES ALÉATOIRES

Solution On peut prendre comme espace Ω l’ensemble de tous les échan- ”Yn = n − 1” = ”2X n − n = n − 1” = ”X n = 2n −1
n ” = ;. De même
tillons possibles (toutes les parties à n éléments d’un ensemble de cardinal n −1
N ) muni de l’équiprobabilité. Chaque échantillon a ainsi une probabilité P (Yn = n − 2) = P (X n = n − 1) = n p q
1
d’être choisi.
(Nn )
Les échantillons (événements élémentaires) réalisant l’événement Exemple 5
{X = k } sont ceux qui contiennent k individus de type A et n − k indivi-
dus du reste. Ceci n’est réalisable que si 0 ≤ k ≤ M et 0 ≤ n − k ≤ N − M .
Dénombrons ces échantillons. On les forme en choisissant k individus On considère un billard américain à six trous numérotés de 1 à 6.
dans une sous-population de type A ( de cardinal M ) et en complétant Le champion du monde de billard américain rentre 15 boules l’une
par n − k individus choisis dans une sous population de N − M . Il y en a après l’autre en choisisnat au hasard l’un des six trous T1 , ..., T6 pour
M N −M
donc k × n −k rentrer chaque boule.
Finalement : Pour tout i ∈ |[1, 6]|, on désigne par X i la variable aléatoire égale au
M
 N −M  nombre de boules rentrés dans le trou i .
k × n −k
P (X = k ) = N
 si 0 ≤ k ≤ M , 0 ≤ n − k ≤ N − M Pour tout i ∈ |[1, 6]|, déterminer la loi de X i .
n

Exemple 3
Solution Si on désigne par succés " la boule rentre dans le trou Ti ", il
On lance indéfiniment une pièce donnant "pile" avec la probabilité s’agit de répétition 15 fois d’une expérience aléatoire à deux issues, dont
p ∈]0, 1[ et "face" avec la probabilité q=1-p. On admet que ces la probabilité de succés est p = 16
lancers sont indépendants.
1
Pour tout entier k ≥ 2, on dit que le kième lancer est un chan- X i ,→ B(15, )
6
gement s’il mène un résultat différent de celui du (k-1)ième. On
note Pk (resp Fk ) l’événement "on obtient Pile (resp face) au kième
lancer". Exemple 6
Pour tout entier n ≥ 2, on note X n la variable aléatoire égale au
nombre de changements durant les n premiers lancers. Soient n , k deux entiers naturels non nuls. Une urne contient 2n +1
on se propose de donner la loi de X 2 . boules numérotés de 1 à 2n + 1. On y effectue une suite de tirages
X 2 (Ω) = {0, 1}, Soit il y’a changement ou pas , X 2 suit donc une avec remise. Les tirages sont supposés mutuellement indépendants
loi de Bernoulli. et les boules peuvent être obtenues de manière équiprobale.
P (X 2 = 1) = P (F1 ∩ P2 ∪ P1 ∩ F2 ).Donc Soient X la variable aléatoire égale au numéro de tirage où l’on
obtient pour la première fois une boule portant le numéro pair et
P (X 2 = 1) = q p + p q = 2p q Y la variable aléatoire égale au nombre de fois où l’on a obtient
une boule portant un numéro pair en k tirages.
X 2 ,→ B(1, 2p q ) 1. Quelle est la loi de X ?
2. Quelle est la loi de Y .

Exemple 4

Soit n un entier supérieur ou égal à 3. Un mobile de déplace sur Solution


un axe gradué. Il part de l’origine au temps 0 et saute à chaque 1. Si on désigne par succés le fait de tirer une boule portant un numéro
n
instant d’une unite à gauche avec la probabilité p ou d’une unité pair, sa probabilité est p = 2n+1 , X est le temps d’attente du premier
à droite avec la probabilité q = 1 − p . Les déplacements sur l’axe succées :
sont supposées mutuellements indépendants. X ,→ G (p )
On note X n la variable aléatoire égale au nombre de sauts sur la .
droite en n instants. 2. Y est le nombre de succées :
1. Quelle est la loi de X n ?
Y ,→ B(k , p )
2. Soit Yn la variable aléatoire égale à la position du mobile sur
l’axe après n déplacemants. Déterminer :
— P (Yn = n). Exemple 7
— P (Yn ) = n − 1.
— P (Yn ) = n − 2. On forme un jury pour le procés d’un criminel en choisissant au
hasard 9 personnes dans la population d’une ville consituée de
200000 habitants. Celle-ci est composée de 48% d’hommes et de
Solution 52% de femmes. Soit X la variable aléatoire égale au nombres de
1. X n (Ω) = |[0, n ]|. femmes que compte le Jury.
Si on considère le saut à droite comme un succés, X n correspond Quelle est la loi de X .
au nombre de succés durant les n sauts, donc X n ,→ B(n , q ).
2. Pour k ∈ |[0, n ]| et w ∈ Ω : X n (Ω) = k . Cela signifie qu’au bout des
n déplacements, on s’est déplacé k fois à droite et n − k fois à
gauche. Solution Il s’agit du tirage de n = 9 individues parmis 200000, dont la
La position du mobile sera dans ce cas : k − (n − k ) = 2k − n . Ainsi
proportion p = 52% est type type A="femme" X est le nombre d’individus
Yn s’exprime en fonction de X n sous forme Yn = f ◦ X n , avec
de type A tirés :
f : x → 2x − n .
Y ,→ H (9, 200000, 0.52)
”Yn = n ” = ”2X n − n = n ” = ”X n = n ”.
Remarque 9
P (Yn = n ) = P (X n = n ) = p n
Une variable aléatoire de Bernoulli est la fonction indicatrice d’un
événement (A = ”X = 1”).

s.hajmi@gmail.com 6
VARIABLES ALÉATOIRES

3.4
3 Couple de variable aléatoires discrètes : loi conjointe, Définition 4.4 — loi marginale
loi marginale Soit (X , Y ) un couple aléatoire discret, on pose
X X
∀i ∈ I pi . = pi j et ∀ j ∈ J p. j = pi j .
Définition 4.2
j ∈J i ∈I
Soit (X , Y ) un couple de variables aléatoires discrètes, on pose
La famille (xi , pi . )i ∈I définit la loi de X dite loi marginale de X.
X (Ω) × Y (Ω) = {(xi , y j )}i ∈I , j ∈J . La famille (y j , p. j ) j ∈J définit la loi de Y dite loi marginale de Y.

Avec (xi ) (respectivement (y j )) les valeurs possibles de X (respective-


ment Y ).
La loi conjointe du couple (X , Y ) est définie par Exemple 11

pi j = P (X = xi , Y = y j ). Déterminer les lois marginales dans le premier exemple avec l’urne.

Exemple 8 Remarque 10

La connaissance de la loi du couple permet de calculer les margi-


Une urne contient 4 blanches, 2 noires et 4 rouges. On tire 3 boules nales. La réciproques est fausse.
sans remise. Soit X le nombre de boules blanches et Y le nombre de
boules noires. Quelle est la loi conjointe du couple (X , Y ) ?
on représente la loi du couple par un tableau à double entrée.
On a X (Ω) = {0, 1, 2, 3} et Y (Ω) = {0, 1, 2}. on obtient le tableau
5 Variable aléatoire à densité

Y/X 0 1 2 3 1.5
1 Généralités
0 4/120 24/120 24/120 4/120
1 12/120 32/120 12/120 0
Définition 5.1
2 4/120 4/120 0 0
Une variable aléatoire réelle X est dite de loi à densité ou de loi continue
(relativement à P ) si sa fonction de répartition FX est continue sur R
et de classe C 1 sur R privé d’un sous-ensemble fini F (éventuellement
Proposition 4.2 vide).
On a On appelle alors densité de X la fonction définie sur R par :
∀i ∈ I ∀ j ∈ J pi j ≥ 0 f X (t ) = FX0 (t ) pour t ∈ R\F et f X (t ) = 0 pour t ∈ F .
et X XX XX
pi j = pi j = pi j = 1. Remarque 11
i ∈I , j ∈J i ∈I j ∈J j ∈J i ∈I
Si X est de loi continue, alors d’après le corollaire 3.1, pour tout
a ∈ R, P (X = a ) = 0
Preuve
Proposition 5.1
Se vérifie par utilisation du théorème de Fubini de sommabilité d’une famille
double. Pour tout a , b ∈ R, a ≤ b , on a
Z b
FX (b ) − FX (a ) = f X (t )d t
Exemple 9 a
Plus généralement si I est un intervalle de borne inférieur a et supé-
Soit (X , Y ) un couple de vad à valeurs dans {0, · · · , 5}. rieure b , alors
On suppose que pi j = 0 si i < j et pi j = λi j sinon. Z b
Déterminer λ pour avoir une loi de probabilité ? P (X ∈ I ) = FX (b ) − FX (a ) = f X (t )d t
on obtient λ = 1/140. a
En particulier la fonction de répartition s’exprime en fonction de la
densité : Z x
FX (x ) = f X (t )d t
Définition 4.3 — Fonction de répartition −∞
On appelle fonction de répartition du couple aléatoire (X , Y ) la fonc-
tion F(X ,Y ) définies sur R 2 par pour tous réels x et y
Preuve
F(X ,Y ) (x , y ) = P (X ≤ x , Y ≤ y ).
Distinguons les cas.

— Si [a , b ] ne rencontre pas F , alors FX est bien C 1 sur |a , b ], et on a :


Z b

Exemple 10 f X (t )d t = FX ]ab = FX (b ) − FX (a )
a

Calculer P (a < X ≤ b , c < Y ≤ d ) en fonction de F (a , c ) , F (a , d ), — Si [a , b ] rencontre F , soit x1 , ..., xn des éléments de F tel que
F (b , c ) et F (b , d ).
a ≤ x1 < x1 < ... < xn ≤ b
On obtient :
On note x0 = a , xn+1 = b
P (a < X ≤ b , c < Y ≤ d ) = F (b , d ) − F (a , d ) + F (a , c ) − F (b , c ) Pour tout [x , y ] ∈]xi , xi +1 [, i = 0, .., n + 1
Z y

f X (t )d t = FX (y ) − FX (x )
x

s.hajmi@gmail.com 7
VARIABLES ALÉATOIRES

lim FX (y ) existe et égale à FX (xi +1 ), de même lim+ FX (x ) = FX (xi ). D’o‘u


y →xi−+1
Solution
x →xi
R xi +1
l’existence de x f X (t )d t et 1. a) f positive.
i
b) f continue sur R.
Z xi +1
R +∞ R +∞
∀i ∈ |[0, n]|, f X (t )d t = FX (xi +1 ) − FX (xi ) c) −∞ f (t )d t = 0 t e −t d t = 1.
xi
f est donc une densité de probabilité.
En sommant, on obtient l’égalité souhaitée. Z x
FT (x ) = f (t )d t
−∞
Propriété 5.1 ¨
La fonction densité de probabilité d’une variable aléatoire de loi conti- 0, si x ≤ 0
= Rx x
nue est positive, continue sur R privé d’un nombre fini de points et 0
t e −t d t = [−(t + 1)e −t ]0 = 1 − (x + 1)e −x
Z
f X (t )d t = 1 2. On distingue les cas :
R a) x ∈ R∗− , G (x ) = P (T −[T ] ≤ x ). Comme T −[T ] ≥ 0, donc G (x ) =
0.
b) x ∈ [1, +∞[, G (x ) = P (T − [T ] ≤ x ), comme T − [T ] < 1, donc
Preuve G (x ) = 1.
La positivité vient du fait que f X (t ) = FX0 (t ) ou f X (t ) = 0 et le fait que FX est crois- c) x ∈ [0, 1[. on utilise le fait que ([T ] = k )k ∈N est un système
sante. complet d’événements
FX est de classe C 1 sur R\F et ∀x ∈ R\F f X (t ) = FX0 (t ), donc f x est continue sur
R +∞.
R\F
f (t )d t = lim FX (x ) = 1.
−∞ X x →+∞ G (x ) = P (T − [T ] ≤ x )
+∞
X
Remarque 12: interprétation = P (T − [T ] ≤ x , [T ] = k ) ([T ] = k )k ∈N
k =0
Bien que f X (x0 ) soit positif pour tout x0 , f X (x0 ) n’est pas une proba- +∞
X
bilité : on peut en particulier avoir f X (x0 ) > 1! Il n’empêche que si = P (k ≤ T < x + k )
[x0 − δ2 , x0 + δ2 ] est un “petit” intervalle centré en x0 , la probabilité k =0
+∞
de tomber dans cet intervalle est :
X
= FT (x + k ) − F (k )
k =0
x0 + δ2
δ δ
Z
e
P (X ∈ [x0 − , x0 + ]) = f X (t )d t ÷ δ f X (x0 ) = (e − e −x +1 − (e − 1)x e −x )
2 2 (e − 1)2
x0 − δ2

Autrement dit, à largeur d’intervalle δ fixée, X a d’autant plus de


chances de tomber dans un intervalle centré en x0 que f (x0 ) est
2.5
2 Fonction d'une variable aléatoire continue
grand
2.1 calcul de densités pour Y = |X |,

Proposition 5.2 Soit x ∈ R, PY (x ) = P (|X | ≤ x ), donc si x ≤ 0 alors FY (x ) = 0.


Une variable aléatoire est continue si et seulement si il existe une Si x ∈ R+ .
fonction f définie sur R vérifiant
P (Y ≤ x ) = P (−x ≤ X ≤ x )
1. f positive.
= FX (x ) − FX (−x )
2. f continue sur R privé d’un nombre fini de points.
R +∞
3. −∞ f (t )d t converge et vaut 1. En dérivant aux bons points, la densité est donc donnée par
et dont la fonction de répartition s’écrit :
Z x f|X | (x ) = f X (x ) + f X (−x )
FX (x ) = f (t )d t
−∞
Toute fonction vérifiant 1), 2) et 3) s’appelle une densité de probabilité. 2.2 calcul de densités pour Y =aX +b,

si a > 0,
x −b x −b
Preuve P (Y ≤ x ) = P (X ≤ ) = FX ( )
a a
Un sens vient de la propriété précédente, pour l’autre sens , soit F =
{x0 , x1 , ..., xn , xn+1 } exactement l’ensemble fini des points où f n’est pas éventuel-
si a < 0,
lement continue avec x0 = −∞, xn +1R = +∞. x −b x −b
c Rx P (Y ≤ x ) = P (X ≥ ) = 1 − FX ( )
Sur chaque ]xi , xi +1 FX vaut FX (x ) = ∞ f (t )d t + c f (t )d t , où c est un point qlq a a
de ]xi , xi +1 [.
f est continue sur ]xi , xi +1 [, R xdonc FX est C sur ]xi , xi +1 [.
1
En dérivant on obtient la densité de Y
Soit a ∈ R, FX (x ) − FX (a ) = a f (t )d t −→0.
x →a
D’où la continuité de FX . 1 x −b
f Y (x ) = fX ( ).
|a | a
Exercice 6

Soit f la fonction définie sur R par : 2.3 calcul de densités pour Y = X 2,

si x < 0, P (Y ≤ x ) = 0.
¨
∀t ∈ R∗− , f (t ) = 0 p p p p
+ si x > 0, P (Y ≤ x ) = P (− x ≤ X ≤ x ) = FX ( x ) − FX (− x ).
∀t ∈ R , f (t ) = t e −t
En dérivant on obtient la densité de Y
1. Montrer que f est une densité d’une variable aléatoire T dont
on précisera la fonction de répartition. f Y (x ) = 0 si x < 0.
2. Soit D la variable aléatoire définie par D = T −[T ]. Déterminer 1 p p
la fonction de réparttion G de D . Y (x ) = p (f X ( x ) + f X (− x )) si x > 0.
2 x

s.hajmi@gmail.com 8
VARIABLES ALÉATOIRES

2.4 calcul de densités pour Y =eX,

si x < 0, P (Y ≤ x ) = 0. Solution F continue strictemenrt croissante, donc c’est une bijec-


si x > 0, P (Y ≤ x ) = P (X ≤ ln(x )) = FX (ln(x )). tion de R dans ]0, 1[.
En dérivant on obtient la densité de Y P (F −1 (U ) ≤ x ) = P (U ≤ F (x )), comme F (X ) ∈ |[0, 1]|, donc
P (F −1 (U ) ≤ x ) = F (x ).
f Y (x ) = 0 si x < 0. X et F −1 (U ) ont donc la même loi.

1 2. loi exponentielle de paramètre λ notée E (λ)


f Y (x ) = (f X (ln(x )) si x > 0. Une variable aléatoire suit une loi exponentielle de paramètre
x
λ > 0 si sa densité de probabilité est :
Proposition 5.3 f (x ) = λe −λx 1R+ .
Si X est une variable aléatoire à valeur dans un intervalle I et si
g : I → J = g (I ) à valeur dans l’intervalle J de R est une fonction C 1 Sa fonction de répartition est :
dont la dérivée ne s’annulle jamais, alors la loi composée Y = g ◦ X Z x ¨
0, si x ≤ 0
−λt
est une variable aléatoire continue de densité de probabilité donnée FX (x ) = λe 1R+ (t )d t =
−∞ 1 − e −λx , si x ≥ 0
par :
f X (g −1 (y )) En pratique, plutôt que de travailler avec la fonction de répartition
f Y (y ) = .
|g 0 (g −1 (y ))| d’une loi exponentielle, il est plus commode d’utiliser la fonction
en tout point y de J de survie G :
¨
1, si x ≤ 0,
G (x ) = P (X > x ) = 1 − FX (x ) =
e −λx , si x > 0.
Preuve

par continuité de g 0 , on aura g 0 > 0 ou g 0 < 0. Les lois exponentielles sont souvent choisies pour modéliser
On suppose que g 0 > 0, g est strictement croissante. Posons b = sup(J ) (even- des temps d’attente : temps d’attente à partir de maintenant du
tuellement égal à +∞).
a = − inf(J ) (eventuellement égal à −∞. prochain tremblement de terre, du prochain faux numéro sur une
ligne téléphonique, de la prochaine désintégration d’un atome
FY (y ) = P (g ◦ X ≤ y )
de radium, etc. La raison de ce choix est la propriété d’absence
= P (X ∈ g −1 (] − ∞, y ]))
 de mémoire en temps continu qui caractérise la famille des lois
1, si y ≥ b exponentielles.
= P (X ≤ g −1 (y )) = FX (g −1 (y )), si a < y < b
0, si y ≤ a

Exemple 12
FY est bien continue ( lim FY (y ) = P (X ∈ I ) = 1, lim+ FY (y ) = 0) de classe C 1 sur
y →b − y →a
f X (g −1 (y ))
R\g (F ), de dérivée g 0 (g −1 (y )) . La durée de vie T en années d’une télévision suit une loi de den-
t
Lorsque g est strictement décroissante, alors −g est strictement croissante, on sité f (t ) = 18 e − 8 χ[0,+∞[ (t ). Calculer la probabilité que votre
pose Z = −g (X ), on Y = −Z . en se référant au calcul de densité de (a X + b , a =
−1, b = 0), Y admet donc une densité égale à télévision ait une durée de vie supérieure à 8 ans.
Il s’agit de la probabilité
f X ((−g )−1 (−y )) f X (g −1 (y ))
f Y (y ) = fZ (−y ) = =
−g 0 ((−g )−1 (−y )) |g 0 (g −1 (y ))|
Z +∞
1 −t 1
P (T ≥ 8) = e 8 d t = ÷ 0.37
Remarque 13 8
8 e

Cette formule est bien sûr liée à la formule de changement de va-


riable connue pour les intégrales. Il n’est pas utile de la retenir, à Exercice 8
condition de savoir la retrouver via le passage par la fonction de
répartition comme vu sur les exemple ci-dessus. a) Montrer que la loi exponentielle est sans mémoire c’est à
dire :
P (X > t + h |X > t ) = P (X > h ).
3.5
3 Lois continues usuelles b) Montrer que inversement, toute variable aléatoire sans
1. loi uniforme sur [a , b ] notée U ([a , b ]. mémoire à densité et à valeurs dans R + est exponentielle.
Cette loi est l’analogue continu de l’équiprobabilité dans le cas c) Application :
discret. Elle permet de modéliser le tirage d’un nombre aléatoire La durée de vie T en années d’une télévision suit une loi
dans l’intervalle [a, b]. t
exponentielle de densité f (t ) = 18 e − 8 χ[0,+∞[ (t ). Vous pos-
Une variable X se répartissant de façon uniforme dans le segment sédez une telle télévision depuis 2 ans, quelle est la proba-
1
[a , b ] est définie par la densité f = b −a sur [a , b ], bilité que sa durée de vie soit encore d’au moins 8 ans à
Autrement dit la densité de cette loi est partir de maintenant ?
1
f = 1[a ,b ] . Solution
b −a
 a) Si X suit une loi exponentielle de paramètre λ, alors
FX (x ) = 0, si x ≤ a

P (X > t ) = e −λt ,
FX (x ) = bx −a
−a , si x ∈ [a , b ].
F (x ) = 1, si x ≥ b .

donc
X

Exercice 7 P (X > t + h , X > t )


P (X > t + h |X > t ) = = e −λh = P (X > h ).
P (X > t )
Si X est une variable aléatoire réelle de fonction de répartition
continue strictement croissante F et si U est une variable b) Réciproquement si X est sans mémoire et à valeurs dans R + ,
on pose g (t ) = P (X > t ). La propriété sans mémoire devient
aléatoire de loi uniforme sur [0, 1], alors la variable aléatoire
Y := F −1 (U ) a même loi que X . g (t + h ) = g (t )g (h ).

s.hajmi@gmail.com 9
VARIABLES ALÉATOIRES

On montre alors que pour tout entier n : Définition 6.1


g (n ) = e −λn avec λ = − ln(g (1)) si g (1) > 0. Puis g (p /q ) = e −λp /q ,
Une famille (X j ) j ∈J de variables aléatoires réelles est dite indépendante
puis avec la continuité de g on conclut sur R + .
si, pour toute famille (I j ) j ∈J d’intervalles de R, la famille (X j ∈ I j ) j ∈J
c) Il s’agit de la probabilité P (T > 8 + 2/T > 2) = P (T > 8) = e −1
d’événements est indépendante.
3. loi normale (ou Gaussiènne) N (m , σ2 ) Une variable aléatoire
suit la normale N (m, σ2 ) si sa densité est
Remarque 14
1 1 x −m 2
f (x ) = p e − 2 ( σ ) . Compte tenu des résultats vus au chapitre précédent cette indépe-
σ 2π
dance dite parfois mutuelle est à distinguer de l’indépendance deux
Si X suit la loi normale N (m, σ2 ), alors à deux de ces variables.

Remarque 15
Y = a X + b ,→ N (a m + b , a 2 σ2 )
La famille (X n )n∈J est indépendante si et seulement si pour toute
En particulier si X suit la loi normale N (m , σ2 ), alors partie finie K = (n1 , ..., nk ) de J et toute famille d’intervalles (Ini )1≤i ≤k
X −m d’intervalles de R.
Z= ,→ N (0, 1)
σ k
Y
P (X n1 ∈ In1 , ..., X nk ∈ Ink ) = P (X ni ∈ Ini )
dite loi normale centrée réduite i =1
Ces lois jouent un rôle capital dans l’étude des lois limites de
sommes de variables aléatoires indépendantes. Par exemple Proposition 6.1
(théorème de de Moivre Laplace) Si Sn suit la loi B(n , p ), alors n ≥ 2, les variables X 1 , ..., X n de l’espace probabilisé (Ω, T , P ) sont in-
pour tout x ∈ R, dépendantes si et seulement si Pour toute famille I1 , ..., In d’intervalles
Æ de R.
P (Sn − n p ≤ x n p (1 − p )) n
Y
P (X 1 ∈ I1 , ..., X n ∈ In ) = P (X i ∈ Ii )
converge quand n tend vers l’infini vers φ(x ), où φ est la fonction i =1
de répartition de la loi gaussienne N (0, 1).
4. loi gamma Γ (b , ν)
R +∞ Preuve
On rappelle que Γ (x ) = 0 t x −1 e −t d t pour x > 0.
Pour b > 0, ν > 0, une variable aléatoire X suit la loi Γ (b , ν) dite loi Le sens direct est évident :
Pour le sens indirect il suffit de compléter le système d’événement
Gamma de paramètres b , ν si sa fonction de densité est :
(X i 1 ∈ Ii 1 ), ..., (X i k , Ii k ) par les événements sûrs
x
x ν−1 e − b (X j ∈ I j ), avec I j = R, j ∈ |[1, n]|\{i 1 , ..., i k }
f (x ) = 1R+ (x )
Γ (τ)b ν

On a Γ (b , 1) est une loi exponentielle de paramètre 1/b . P (X i 1 ∈ Ii 1 , ..., X i k ∈ Ii k ) = P (X 1 ∈ I1 , ...., X n ∈ In )


Yn

Exercice 9: Loi de Pareto = P (X i ∈ Ii )


i =1
= P (X i 1 ∈ Ii 1 )....P (X i k ∈ Ii k )
La variable aléatoire T , représentant la durée de vie en heures d’un
composant électronique, a pour densité
Proposition 6.2
10 La famille de variables aléatoires discrètes (X 1 , ..., X n ) est indépen-
f (t ) = χ[10,+∞[
t2 dante si et seulement si pour tout (x1 , ..., xn ) ∈ (X 1 (Ω), ..., X n (Ω))
. n
Y
1. Calculer P (T > 20). P (X 1 = x1 , ..., X n = xn ) = P (X i = xi )
i =1
2. Quelle est la fonction de répartition de T ? La représenter.
3. Quelle est la probabilité que parmi 6 composants indépen-
dants, au moins 3 d’entre eux fonctionnent durant au moins Preuve
15 heures.
Le sens direct est évident, il suffit de considérer les {xi } comme intervalles.
Inversement, soit (I1 , .., Ik ) une famille d’intervalles. Pososns
Solution
R +∞ 10 Bk = Ik ∩ X k (Ω)
1. P (T > 20) = 20 t2 d t = 12 .
¨ En terme d’événements, nous avons l’égalités suivante :
0, si x ≤ 10
2. FT (x ) = P (T ≤ x ) =
1− 10
x , si x ≥ 10 ”X k ∈ Ik ” = ”X k ∈ Bk ”

3. Chaque composant suit la même loi Ti , i = 1...6. Bk est au plus dénombrables, on peut l’écrire sous forme :
En considérant
R ∞ l’évenement ”T ≥ 15” comme un succés de proba-
bilité p = 15 10 2
t 2 d t = 3 , le nombre de composants parmis les 6 est Bk = ∪ {xk ,n }
n∈N
une variable aléatoire distribuée selon une loi binomiale B(6, 23 ).
La probabilité cherchée est
P (X 1 ∈ I1 , ..., X k ∈ Ik ) = P (X 1 ∈ B1 , X 2 ∈ B2 , ..., X k ∈ Bk )
6  
X 6 k = P ( ∪ (X 1 = x1,n ), ..., ∪ (X k = xk ,n )
P (X ≥ 3) = p (1 − p )6−k ÷ 0.9 n∈N n∈N

k =3
k =
XX
....
X
P (X 1 = x1,n1 , ..., X k = xk ,nk )
n1 ∈N n2 ∈N nk ∈N
XX X
= .... P (X 1 = x1,n1 )...P (X k = xk ,nk )
6 Indépendance de variables aléatoires n1 ∈N n2 ∈N nk ∈N

= P (X 1 ∈ B1 )...P (X k ∈ Bk )
= P (X 1 ∈ I1 )...P (X k ∈ Ik )

s.hajmi@gmail.com 10
VARIABLES ALÉATOIRES

Exemple 13 et de loi définie par s ∈ S :


X X
P (S = s ) = P (X 1 = u )P (X 2 = s − u ) = P (X 1 = s − v )P (X 2 = v )
une urne contient a boules noires et b boules blanches. On tire u∈D1 v ∈D1

deux fois une boule et on note X i la variable qui vaut 1 si la boule Formule appelée produit de convolution discret des variables X 1 et
tirée au ième tirage est blanche et 0 sinon. Etudier l’indépendance X 2.
de X 1 et de X 2 dans le cas où le tirage se fait sans remise.

Preuve

Solution
P (X 1 + X 2 = s ) = P ((X 1 + X 2 = s ) ∩ ( ∪ (X 1 = u ))
u∈D1
b b (b − 1) + a b b  ‹
P (X 1 = 1) = , P (X 2 = 1) = = = P ∪ (X 1 = u , X 2 = s − u)
a +b (a + b )(a + b − 1) a + b u∈D1
X
= P (X 1 = u, X 2 = s − u )
b (b − 1)
P (X 1 = 1, X 2 = 1) = u∈D1
(a + b )(a + b − 1) X
= P (X 1 = u)P (X 2 = s − u )
donc X 1 et X 2 ne sont pas indépendants. u∈D1

Exercice 10
Théorème 7.2 - Somme de variables de Bernoulli
Soient n ≥ 3 et X 1 , X 2 , ..., X n des variables aléatoires réelle discrètes Soit X 1 , ..., X n des variables aléatoires indépendantes suivant la loi
sur (Ω, T , P ) mutuellement indépendantes. n
B(p ). Alors X i ,→ B(n , p )
P
1. Montrer que les variables aléatoires X 1 + X 2 , X 3 , ..., X n sont
i =1
mutuellement indépendantes.
2. En déduire que pour tout entier r compris entre 2 et n − 1, les
Preuve
variables :
X 1 + X 2 + ... + X r , X r +1 + ... + X n sont indépendantes. n
Posons X =
P
Xk .
k =1
D’abord X (Ω) ⊂ |[0, n ]|.
Solution L’événement X = k a lieu lorsque k variables X i prennent la valeur 1 et les n − k
n
1. autres la valeur 0, il y’a k combinaisons. Comme les événement A i associés sont
indépendants, chaque événement de cette distribution a la m ême probabilité
P (X 1 + X 2 = a , X 3 = x3 , ..., X n = xn ) d’apparition soit p k (1 − p )n −k . Enfin

= P ((X 1 + X 2 = a ) ∩ (X 3 = x3 ), ∩... ∩ (X n = xn ))  
n k
  P (X = k ) = p (n − p )n −k
  k
= P ∪ X 1 = a p ∩ (X 2 = a − a p ) ∩ ... ∩ (X n = xn )
a p ∈X 1 (Ω)
X  Remarque 16
= P (X 1 = a p ) ∩ (X 2 = a − a p ) ∩ (X 3 = x3 ) ∩ ... ∩ (X n = xn )
a p ∈X 1 (Ω)
X Ce théorème peut être vu comme un corollaire du théorème de
= P (X 1 = a p )P (X 2 = a − a p )P (X 3 = x3 )...P (X n = xn ) stabilité de lois binomiales qui suit.
a p ∈X 1 (Ω)
!
X Théorème 7.3 - Stabilité des lois binomiales
= P (X 1 = a p )P (X 2 = a − a p ) P (X 3 = x3 )...P (X n = xn )
a p ∈X 1 (Ω) Soit (m , n ) ∈ (N∗ )2 et p ∈]0, 1[. Si X ,→ B(n , p ) et Y ,→ B(m, p ) sont
 
indépendantes, alors X + Y ,→ B(m + n , p ).
= P ∪ (X 1 = a p ) ∩ (X 2 = a − a p ) P (X 3 = x3 )...P (X n = xn )
a p ∈X 1 (Ω)

= P (X 1 + X 2 = a )P (X 3 = x3 )....P (X n = xn )
Preuve

2. Par récurrence fini sur r compris entre 2 et n − 1. On utilise le théorème de convolution de variables aléatoires discrèes.
(X + Y )(Ω) ⊂ |[0, m + n ]|. Soit s ∈ |[0, m + n ]|.
Proposition 6.3 - Indépendance héritée (admis) n
X
P (X + Y = s ) = P (X = k , Y = s − k )
Si la famille (X j )1≤ j ≤nk est indépendante et si k =0

0 < n1 < ... < nk n    


X n k m
= p (1 − p )n −k p s −k (1 − p )m−s +k
k s −k
Alors la famille k =0
‚ n   Œ
 X n m
f1 (X 1 , ..., X n1 ), f2 (X n1 +1 , ..., X n2 ), ..., fk (X nk −1 +1 , ..., X nk ) = p s (1 − p )m+n −s
k =0
k s −k
est indépendante.
m +n s
 
les fi sont des fonctions continues. = p (1 − p )n +m −s
s

Corollaire 7.1 - Stabilité des lois binomiales


7 Loi de la somme et stabilité Si (X i )i =1,..,k est une famille de variables aléatoires indépendantes sui-
vant les lois binomiales respectives B(ni , p ), alors la variable aléatoire
1.7
1 Cas discret Pk Pk
X i ,→ B( ni , p )
i =1 i =1
Théorème 7.1
Si (X 1 , X 2 ) est un couple de variables aléatoires réelles indépendantes
Preuve
dont les lois sont discrètes d’ensembles de valeurs possibles respectifs
D1 et D2 (sous ensembles de R au plus dénombrables), alors la variable Par récurrence sur k . Pour k = 1, 2 c’est le théorème précédent.
Supposons la propriété vraie pour k . Soit X 1 , ..., X k +1 (k + 1) variables indépen-
aléatoire S = X 1 + X 2 est discrète d’ensemble de valeurs possibles dantes suivants respectivement des lois B(ni , p ), i = 1...(k + 1).
contenu dans k k
X i ,→ B( ni , p ).
P P
par hypothése de récurrence
S = {u + v, (u , v ) ∈ D1 × D2 } i =1 i =1

s.hajmi@gmail.com 11
VARIABLES ALÉATOIRES

k
Par le théorème d’indépendance héritée,
P
X i et X k +1 sont indépendantes. Par variable aléatoire S = X 1 + X 2 est à densité, de densité
i =1 Z +∞
+1
kP +1
kP
le théorème précédent : X i ,→ B( ni , p ) f :x → f1 (t )f2 (x − t )d t
i =1 i =1
−∞
Cette fonction est appelée le produit de convolution des densités f1
Théorème 7.4 - Stabilité des lois de poisson et f2 .
Soit (λ, µ) ∈ (R+ )2 . Si X ,→ P (λ) et Y ,→ P (µ) sont indépendantes,
alors X + Y ,→ P (λ + µ).
Théorème 7.7 - Stabilité de la loi Gamma
(X k )k =1,..,n suite de variables aléatoires indépendantes suivants res-
Preuve pectivement les lois Gamma Γ (b , λk )k =1,...,n , alors
n n
(X + Y )(Ω) = N. Soit s ∈ N.
X X
X k ,→ Γ (b , λk )
s
X k =1 k =1
P (X + Y = s ) = P (X = k )P (Y = s − k )
k =0
s
X λk −µ µs −k
= e −λ e Preuve
k =0
k! (s − k )!
(λ + µ) s Il suffit de le montrer pour le cas n = 2. Le cas générale s’en déduit par récurrence
= e −(λ+µ) en passant par le théorème d’indépendance héritée.
s! On admet le résultat suivant :
Donc X + Y ,→ P (λ + µ). 1
Γ (x )Γ (y )
Z
x, y > 0 t x −1 (1 − t ) y −1 d t =
0
Γ (x + y )
Corollaire 7.2 - Stabilité des lois de poisson
Posons R X = X1 + X2.
Si (X i )i =1,..,k est une famille de variables aléatoires indépendantes +∞ R +∞
f X (x ) = −∞ f X 1 (t )f X 2 (x − t )d t = 0 f X 1 (t )f X 2 (x − t )d t .
suivant les lois des lois de poisson P (λi )i =1,..k respectivement, alors Donc déja pour x ≤ 0, f X (x ) = 0.
k k Supposons que x ≥ 0.
X i ,→ P ( λi )
P P
la variable aléatoire
i =1 i =1 x t
t τ1 −1 e − b (x − t )τ2 −1 e − b
x −t
Z
f X (x ) = dt
0
Γ (τ1 )b τ1 Γ (τ2 )b τ2
x Z x
eb
Preuve = t τ1 −1 (x − t )τ2 −1 d t
Γ (τ1 )Γ (τ2 )b τ1 +τ2 0
Se démontre de la même façon que le corollaire 7.1 x
x τ1 +τ2 −1 e − b
Z1
= u τ1 −1 (1 − u)τ2 −1 d t
Γ (τ1 )Γ (τ2 )b 1 2 0
τ +τ

x
x τ1 +τ2 −1 e − b
2.7
2 Cas continu =
Γ (τ1 + τ2 )b τ1 +τ2

Théorème 7.5
Théorème 7.8 - Somme de lois exponentielles
Si (X 1 , X 2 ) est un couple de variables aléatoires réelles indépendantes
telles que X 1 soit discrète, d’ensemble de valeurs possibles D1 , etX 2 λ ∈ R∗+ , Si (X k )k =1,...,n est une famille de variables aléatoires indépen-
soit continue, de densité f2 , alors la variable aléatoire S = X 1 + X 2 est dantes suivant la même loi exponentielle, de paramètre λ, alors la
n
à densité de densité : X k suit la loi gamma Γ ( λ1 , n ).
P
X variable
k =1
f :s → P (X 1 = u )f2 (s − u )
u ∈D1

Preuve

Preuve Se déduit du théorème de stabilité de la loi Γ puisque une loi E (λ) est une loi
Γ ( λ1 , 1)
Soit s ∈ R.
(X 1 + X 2 ≤ s ) = ∪ (x = u, X 2 ≤ s − u)
u ∈D1
Théorème 7.9 - Stabilité de la loi normale
Les deux variables sont indépendantes et D est au plus dénombrable. Donc
X Soit X ,→ N (m , σ2 ) et Y ,→ N (m 0 , σ02 ). Si X et Y sont indépendantes,
P (X 1 + X 2 ≤ s ) = P (X 1 = u , X 2 ≤ s − u ) alors
u∈D1
X X + Y ,→ N (m + m 0 , σ2 + σ02 )
= P (X 1 = u)P (X 2 ≤ s − u )
u∈D1

X
Z s −u

= P (X 1 = u) f (t )d t Preuve
u∈D1 −∞

X
Z s On commence à le démontrer pour le cas où m = m 0 = 0.
= P (X 1 = u) f (t − u )d t Z +∞
u∈D1 −∞ 1 t2 (x −t )2

s
‚ Œ f X +Y (x ) = e − 2σ2 e − 2σ02 dt
2πσσ0
Z
X −∞
= P (X 1 = u )f (t − u ) d t !2
+∞ Z v !
−∞ u∈D1 1 1 t 1 1 x x 02
= exp − + t− +
σ2 σ02 σ2 + σ02
q
2πσσ0 −∞ 2 σ02 σ12 + σ102
Dans le cas discret infini où D = (u ) , l’interversion de série et integrale vient
P Rns n ∈N !2
de la convergence de la série n −∞ |P (X 1 = u n )f (t − u n )|d t du fait que toute Z +∞ v
1 −1 x
02 1 t 1 1 x
somme finie est inférieure à P (X 1 + X 2 ≤ s ) = e 2 σ2 +σ02 exp − + t−
σ2 σ02
q
2πσσ0 −∞
2 σ02 1 + 1 σ2 σ02

Théorème 7.6 - admis Puis le changement de variable u =


q
1
+ σ102 t − r x .
σ2 1
σ02 + 1
Si (X 1 , X 2 ) est un couple de variables aléatoires réelles indépendantes On obtient
σ2 σ02

‹2
dont les lois sont continues, de densités respectives f1 et f2 , alors la

0
1 −1 p x
f X +Y (x ) = p p e 2 σ2 +σ02
2π σ2 + σ02

s.hajmi@gmail.com 12
VARIABLES ALÉATOIRES

Donc X + Y ,→ N (0, σ2 + σ02 ).


Si maintenant m , m 0 sont quelconques X ,→ N (m, σ2 ), Y ,→ N (m 0 , σ02 ) . Alors Exemple 14

X − m ,→ N (0, σ2 ), Y − m 0 ,→ N (0, σ02 )


On dit qu’une variable aléatoire suit une loi de Cauchy si sa fonction
D’après le théorème d’indépendance héritée X −m et Y −m 0 sont indépendantes, densité est
et donc 1 1
X + Y − (m + m 0 ) ,→ N (0, σ2 + σ02 ) f (x ) =
π 1+ x2
et
X + Y ,→ N (m + m 0 , σ2 + σ02 ) Une loi de Cauchy n’admet pas d’espérance.

Corollaire 7.3
Soit X 1 , ..., X n mutuellement indépendantes, telles que pour tout i ∈ 2.8
2 Transferts
|[1, n ]|, X i ,→ N (mi , σi2 ). Alors
n n n
X X X Théorème 8.1 - Théorème de transfert
X i ,→ N ( mi , σi2 )
i =1 i =1 i =1 1. Si X est une variable aléatoire disctète de loi (xn , pn )n ∈I , alors la
En particulier variable aléatoire Y = g (X ) admet une espérance si et seulement
si la famille (g (xn )P (X = xn ))n∈I est sommable. Auquel cas :
1. Soit X 1 , ..., X n mutuellement indépendantes, suivant toutes la X X
même loi N (m, σ2 ). Alors E (g (X )) = g (xi )P (X = xi ) = g (x )P (X = x )
Xn i ∈I x ∈X (Ω0 )
X i ,→ N (nm, n σ2 ) 2. Si X est une variable aléatoire continue, et g continue, alors la
i =1
variable aléatoire Y = g (X ) admet une espérance si et seulement
2. Si (X 1 , ..., X n ) sont mutuellement indépendantes et suivent si la fonction t → g (t )f X (t ) est intégrable sur R. Auquel cas :
toutes la même loi N (0, 1), alors : Z +∞
Xn
E (g (X )) = g (t )f X (t )d t
X i ,→ N (0, n ) −∞
i =1
3. Si (X 1 , X 2 ) est un couple de variables aléatoires réelles de loi
discrète (loi conjointe caractérisée par ((xi , y j ), pi , j )i , j , alors la
variable aléatoire Y = g (X 1 , X 2 ) admet une espérance si, et seule-
8 Espérance, moment ment si, la famille double (g (xi , y j )pi , j )i , j est sommable. Auquel
cas l’espérance de Y = g (X 1 , X 2 ) est donnée par :
X
1.8
1 Dénitions E (g (X 1 , X 2 )) = g (xi , x j )pi , j
i,j
L’idée de l’espérance trouve son origine dans les jeux de hasard. Considé-
rons le jeu qui consiste à lancer un dé plusieurs fois de suite. Supposons
Remarque 17
que pour une mise de 1 pièce, on gagne 1 pièce si le résultat obtenu est
pair, 2 pièces si le résultat est 1 ou 3, et on perd 3 pièces si le résultat est Avec ce théorème il n’est pas nécessaire de connaitre la loi de Y .
5. Est-il intéressant de jouer à ce jeu ? Quel peut-être le gain moyen ?
Soit X la variable aléatoire correspondant au nombre de pièces gagnées Proposition 8.1
ou perdues. La loi de X est X admet une espérance si et seulement si |X | l’admet. Au quel cas :
x −3 1 2
|E (X )| ≤ E (|X |)
P (X = x ) 16 1
2
1
3
L’espérance de gain, noté E [X ], est alors
Preuve
E [X ] = −3 ∗ 1/6 + 1 ∗ 1/2 + 2 ∗ 1/3 = 2/3
Supposons que E (X ) existe, alors en appliquant le théorème de transfert à g :
Le joueur gagne donc en moyenne 2/3 de pièces pour une mise de 1 x → |x |, E (|X |) existe et on obtient
— Au cas discret :
pièce. . .le jeu semble ne pas être intéressant ! !.
X
E (|X |) = |xi |P (X = xi )
i

Définition 8.1 — Au cas continue :


1. Cas discret Z x

X une variable aléatoire discrète de loi (xn , pn )n∈I (I au plus E (|X |) = |t | f X (t )d t < +∞
−∞
dénombarble), on dit que X admet une espérance si la famille
(xn , pn )n∈I est sommable, auquel cas l’espérance est définie : Inversement supposons que |X | admet une espérance, alors :
X X X X
E (X ) = xn pn = x P (X = x ) |xi |P (X = xi ) ≤ |xi |P (|X | = |xi |)
i ∈I i ∈I
i ∈I x ∈X (Ω0 )
D’où l’existence de E (X ), et on a
2. Cas continu X X
X une variable aléatoire continue de densité de probabilité f X , |E (X )| = | xi P (X = xi )| ≤ |xi |P (X = xi ) = E (|X |)
on dit que X admet une espérance si la fonction t → t f X (t ) est i ∈I i ∈I

intégrable sur R, auquel cas on définit l’espérance de X par De même pour le cas continu.
Z +∞
E (X ) = t f X (t )d t 3.8
3
−∞
Propriétés de l'éspérance
Lorsqu’une variable X vérifie E [X ] = 0, on dit que la variable est Proposition 8.2
centrée. Si X et Y sont des variables aléatoires réelles sur l’espace probabilisé
(Ω, T , P ), si Y admet une espérance et si |X | ≤ Y alors X admet une

s.hajmi@gmail.com 13
VARIABLES ALÉATOIRES

De même si X est à densité, alors X ≥ 0 entraine que la fonction densité


espérance. Auquel cas : f est nulle sur ] − ∞, 0[ et par suite
|E (X )| ≤ E (Y ) Z x

E (X ) = t f (t )d t ≥ 0
0

Preuve
5. Se déduit de la positivité de X et de la linéarité.
Pour la démonstration, on se limite au cas discret.
L’idée est d’utiliser le fait que Définition 8.2
X Si X admet un moment d’ordre 1, on appelle variable centrée associée
P (X = x ) = P (X = x , Y = y )
y ∈Y (Ω)
à X la variable aléatoire centrée

!
X̃ = X − E (X )
X X X
|x |P (X = x ) = |x | P (X = x , Y = y )
x ∈X (Ω) x ∈X (Ω) y ∈Y (Ω)

=
X X
|x |P (X = x , Y = y )
Proposition 8.3
x ∈X (Ω) y ∈Y (Ω) Soit (X 1 , . . . , X N ) une suite de v.a. indépendantes sur (Ω, A , P ). Alors le
produit X 1 · · · X N a une espérance si et seulement si chaque X j a une
X X
≤ |y |P (X = x , Y = y )
x ∈X (Ω) y ∈Y (Ω) espérance. Dans ces conditions l’espérance du produit est le produit
des espérances :
Car lorsque |x | > y , alors l’événement (X = x , Y = y ) est impossible et donc
IE(X 1 · · · X N ) = IE(X 1 ) · · · IE(X N ).
|x |P (X = x , Y = y ) ≤ y P (X = x , Y = y )

Sinon on a bien Preuve


|x |P (X = x , Y = y ) ≤ y P (X = x , Y = y )
Ainsi Il suffit de le montrer pour N = 2. le cas général s’en déduit par récurrence. On
se limite aussi au cas discret. Le cas où l’une des variable est nulle est évident.
X X X X 1 , X 2 deux variables aléatoires discrètes non nulles, D1 = (xi )i ∈I , D2 = (y j ) j ∈J
|x |P (X = x ) ≤ |y | P (X = x , Y = y )
les valeurs prises par X 1 , X 2 respectivement de lois (pi )i ∈I , (q j ) j ∈J . (pi j ) la loi
x ∈X (Ω) y ∈Y (Ω) x ∈X (Ω)
X conjointe. Par indépendance, on aura pi j = pi q j
= |y |P (Y = y ) X 1 X 2 = g (X 1 , X 2 ), g : (x , y ) → x y .
y ∈Y (Ω) g (xi , y j )pi j = xi y j pi p j . c’est donc une famille double à variables séparables
< +∞ Elle est sommables si et seulement si (xi pi )i ∈I et (y j q j ) j ∈J le sont c’est à dire X 1
et X 2 admettent des espérances. Auquel cas :

Propriétés 8.1 X
‚
X
Œ
X
!
1. si X = a , alors E (X ) = a . E (X 1 X 2 ) = xi y j pi p j = xi pi y j q j = E (X 1 )E (X 2 )
i,j i ∈I j ∈J
2. ∀A ∈ T , E (1A ) = P (A).
3. linéarité : E (X + λY ) = E (X ) + λE (Y ) si les espérances de X et
Y existent. 4.8
4 Moments d'ordre 2, variance convariance
4. positivité : si X ≥ 0, alors E (X ) ≥ 0.
Définition 8.3
5. croissance : si X ≥ Y , alors E (X ) ≥ E (Y ).
Le moment d’ordre k d’une variable aléatoire X est sous reserve d’exis-
tence E (X k )
Preuve
Proposition 8.4
1. Si X = a , alors X (Ω) = {a }. Si la variable aléatoire réelle X admet un moment d’ordre k ∈ N∗ , alors
E (X ) = a P (X = a ) = a .
2. X = 1A , donc X (Ω) = {0, 1}. elle admet un moment d’ordre j pour tout j ∈ {1, ..., k } ; de même la
E (X ) = 0P (X = 0) + 1P (X = 1) = P (A). variable aléatoire réelle X + α admet un moment d’ordre k , pour tout
3. Pour la démonstration, on se limite au cas discret D1 = (xi )i ∈I , D2 = (y j ) j ∈J réel α.
les valeurs possibles de X respectivement Y .(pi )i ∈I , (q j ) j ∈J leurs lois de
probabilité respectives et (pi , j )i , j la loi conjointe.
X + λY = g (X , Y ), avec g (x , y ) = x + λy , on applique alors le théorème
de transfert. Preuve
X + λY admet une espérance si et seulement si la famille ((xi + λy j )pi , j )i , j
est sommable. On se limite encore au cas discret.
Soit j ≤ k , nous avons |X j | ≤ |X | j , par le théorème de transfert il suffit de montrer
|xi + λy j |pi , j | ≤ |xi |pi , j | + |y j |pi , j la sommabilité de 
|xi | j P (X = xi )i ∈I
On montre séparement que les familles (|xi |pi , j )i , j et (|y j |pi , j )i , j sont som-
On partage I en les deux paquets :
mables. On applique pour cela le théorème de Fubini pour la sommabilité
de famille double.
P
Pour i fixé j ∈J |xi |pi , j existe et I1 = {i ∈ I1 , |xi | ≤ 1}, I2 = {i ∈ I , |xi | > 1}

X ∀i ∈ I2 , |xi | ≤ |xi |kj


|xi |pi j = |xi |pi
j ∈J Donc (|xi | P (X = xi )i ∈I1 est sommable.
j

∀i
P ∈ I1 , |xj i | ≤ 1. Donc :
Par existence de E (X ) ; i ∈I |xi |pi existe. D’où la sommabilité de (xi pi j ). i ∈I1 |x i | P (X = x i ) ≤ P (X ∈ ∪ {x i }) < +∞.
P
i ∈I1
Par symétrie, on aura de même la sommabilité de (y j )pi j . D’où la sommabilité de (|xi |P (X = xi ))i ∈I1 .
Finalement on a la sommabilité de (xi + λy j )pi j et l’existence de E (X + X + α admet aussi une espérance du fait précédent et du fait
λY ).
Toujours par le théorème de Fubini : k  
X k k −i i
(X + α)k = α X
i
XX XX
E (X + λY ) = xi pi j + λ y j pi j i =1
i ∈I j ∈J j ∈J i ∈I
X X
= xi pi + λ yj q j Définition 8.4
i ∈I j ∈J

= E (X ) + E (Y )
Si la variable aléatoire réelle X admet un moment d’ordre 2, on appelle
variance de X la quantité
xi P (X =
P
4. Si X ≥ 0, les valeurs possibles seront positives, et par suite i ∈I
xi ) ≥ 0. Var(X) = E((X − E(X))2 )

s.hajmi@gmail.com 14
VARIABLES ALÉATOIRES

et l’écart type de X la racine carrée de la variance : donnée par :


p Var(S) = Var(X) + Var(Y) + 2E(X − E(X))(Y − E(Y))
σ(X ) = Var(X)

Preuve

Proposition 8.5 - translation et changement d’échelle 1. |X Y | ≤ X 2 + Y 2 , l’existence de l’espérance de X Y s’en déduit par l’exis-
tence de E (X 2 ) et E (Y 2 ). Pour l’inégalité, on procède comme pour un pro-
. Si X a un moment d’ordre 2, alors duit scalaire.
Si l’une des variables est nulle, le résultat est immédiat. Supposons pour
∀a ∈ R, ∀b ∈ R, Var(aX + b) = a2 Var(X), σ(aX + b) = |a|σ(X). tout t ∈ R le trinôme

t 2 E (Y 2 ) + 2t E (X Y ) + E (X 2 ) = E (X + t Y )2
Preuve
est positif. Ceci n’est possible que si son discriminant est négatif.
Ceci se traduit par :
Se déduit de la linéarité de l’espérance.

Var(aX + b) = E((aX + b) − E(aX + b))2 ) = E((a(X − E(X)))2 ) = a2 Var(X) ∆ = E (X Y )2 − (E (X ))2 − (E (Y 2 ))2 ≤ 0

ce qui fournit exactement l’inégalité cherchée.


le sens indirect pour l’inégalité est trivial.
Définition 8.5 Suppsons maintenant qu’on a égalité, le descrimiant sera donc nul, il
Si X admet un moment d’ordre 2, on appelle variable centrée réduite existe t 0 tel que E ((X + t 0 Y )2 ) = 0. D’après la proposition précédente ceci
n’étant vrai que lorsque X + t 0 Y = 0 presque surement.
associée à X la variable aléatoire réelle
2.
(X − E (X ))
X∗= V (S ) = E ((X + Y )2 − (E (X ) + E (Y ))2 )
σ(X ) = E ((X + Y )2 − (E (X ) + E (Y ))2 )
C’est une variable d’espérance nulle et de variance égale à 1. = E ((X − E (X ))2 + (Y − E (Y ))2 + 2(X − E (X ))(Y − E (Y )))
= Var(X) + Var(Y) + 2E(X − E(X))(Y − E(Y))

Remarque 18
Définition 8.6
La variance est donc une moyenne de l’écart entre X et sa moyenne Si X et Y sont des variables aléatoires réelles admettant un moment
au carré. Elle caractérise la dispersion de X par rapport ‘ a sa d’ordre 2, on définit la covariance du couple (X , Y ) par la formule
moyenne. Pour des raisons d’homogénéité, on lui préfère souvent
dans les applications pratiques l’écart-type. C (X , Y ) = E ((X − E (X ))(Y − E (Y ))) = E (X Y ) − E (X )E (Y ).

Proposition 8.6 - Koenig Huygens Avec cette notation on obtient

On a Var(X + Y) = V(X) + V(Y) + 2C(X, Y)


Var(X) = E(X2 ) − (E(X))2

Remarque 19
Preuve
La covariance entre les variables X et Y un nombre permettant
de quantifier leurs écarts conjoints par rapport à leurs espérances
E ((X − E (X )) )
2
= E (X + 2E (X )X + (E (X )) )
2 2
respectives
= E (X 2 ) − 2E (X )E (X ) + (E (X ))2
= E (X 2 ) − (E (X ))2
Proposition 8.9
Si X et Y sont des variables aléatoires réelles admettant un moment
Proposition 8.7
d’ordre 2 et si ces variables sont indépendantes, leur covariance est
X une variable aléatoire admettant un moment d’ordre 2.
nulle.
1. Si X ≥ 0 et E (X ) = 0, alors X = 0 presque surement. Auquel cas La variance de la somme est alors la somme des va-
2. Var(X) = 0 si et seulement si X = a constante presque surement. riances.

Preuve Preuve

1. Supposons que x ∈X (ω0 ) x P (X = x ) = 0, alors pour tout x 6= 0, Se déduit de la proposition 8.3. Les deux varibales sont indépendantes, donc
P
E (X Y ) = E (X )E (Y ), de là on obtient C (X , Y ) = E (X Y ) − E (X )E (Y ) = 0
P (X = x ) = 0. Ainsi
X
P (X 6= 0) = P (X = x ) = 0
x 6=0
Définition 8.7 — Corrélation linéaire :
Si X et Y sont des variables aléatoires réelles admettant un moment
2. Var(X) = E((X − E(X))2 ), d’après le résultat précédent on aura X = E (X ) d’ordre 2 de lois non certaines (i.e. variances non nulles), on définit le
presque surement.
coefficient de corrélation linéaire du couple (X , Y ) par la formule

Proposition 8.8 C (X , Y )
ρ(X , Y ) =
Si X et Y sont des variables aléatoires réelles admettant un moment σ(X )σ(Y )
d’ordre 2, alors :
1. la variable aléatoire X Y admet une espérance et
Définition 8.8
(E (X Y ))2 ≤ E (X 2 )E (Y 2 ) (Cauchy-Schwarz)
Deux variables X , Y dont le coefficient de corrélation ρ est nul sont
avec égalité si et seulement si X = 0 ou ∃α : Y = αX presque dites décorrélées. Ce qui est équivalent à Var(X + Y) = Var(X) + Var(Y)
sûrement.
2. S = X + Y admet un moment d’ordre 2 et sa variance V (S ) est

s.hajmi@gmail.com 15
VARIABLES ALÉATOIRES

c) Déduire de la question précédente que :


Remarque 20
n +k −1 n
 
Deux variables indépendantes sont décorrélées. La réciproque est ∀k ∈ N, P (X n = n + k ) = p (1 − p )k
fausse. n −1

d) Vérifier que
+∞
Exemple 15 X
P (X n = n + k ) = 1
k =0
Soit X qui suit une loi uniforme sur {−1, 0, +1} et Y définie par
Y = X 2 . Alors par le théorème de transfert : En déduire P (X n = 0).
On dit que X n suit la loi binomiale négative de para-
1 1 mètres n et p.
E (X Y ) = E (X 3 ) = (−1)3 + = 0
3 3 Pour la suite on pourra utiliser les identités
Un calcul similaire montre que E [X ] = 0, donc sans même calculer
n +k −1 n +k
   
E [Y ], on a aussi E [X ]E [Y ] = 0. ∀n ∈ N∗ , ∀k ∈ N, (n + k ) =n
Il s’ensuit que : n −1 n

n +k −1 n +k −2
   
C (X , Y ) = E [X Y ] − E [X ]E [Y ] = 0 n −1
∀n ¾ 2, =
n +k −1 n −1 n −2
c’est-à-dire que X et Y sont décorrélées. Mais ne sont pas indépen-
3. En utilisant le fait que, pour tout entier naturel n ,
dantes. P (X = 1, Y = 1) = P (X = 1) 6= P (X = 1)P (Y = 1) +∞
X
P (X n +1 = n + 1 + k ) = 1, montrer que X n possède une es-
k =0
Proposition 8.10 pérance et donner sa valeur en fonction de n et p .
Le coefficient de corrélation linéaire du couple (X , Y ) est un élément 4. Utiliser le théorème de transfert pour montrer que, pour tout
de l’intervalle [−1, 1]. n −1
entier naturel n supérieur ou égal à 2, possède une
Le cas ρ = 1 équivaut à (Y = αX + β avec α > 0) p.s Xn − 1
le cas ρ = −1 équivaut à (Y = αX + β avec α < 0) p.s n −1 
espérance et que E = p.
Xn − 1
n
5. a) Justifier que possède une espérance (on n’en demande
Xn
Preuve pas le calcul).
n 
Par l’inégalité de Cauchy Schwartz b) Montrer, sans la calculer, que E > p.
Xn
|C (X , Y )| = |E ((X − E (X )(Y − E (Y ))| ≤ σ(X )σ(Y )

D’où Solution
|ρ(X , Y )| ≤ 1
1. a) X 1 est le temps d’attente du premier succés. Il s’agit donc de la
p p
ρ(X , Y ) = 1 ⇐⇒ E ((X − E (X ))(Y − E (Y ))) = E (X − E (X )) E (X − E (X )) loi gémétrique.
C’est un cas d’égalité dans l’inégalité de Cauchy-Schwartz. ce qui se traduira de
manière équivalente par le fait que X = E (X ) ou il existe α > 0 tel que Y − E (Y ) = P (X 1 = k ) = (1 − p )k −1 p
α(X − E (X )),
C’est à dire encore X = E (X ), ou Y = αX + β . b)
On fait de même lorsque ρ = −1. 1
E (X 1 ) =
p
Remarque 21
1−p
Var(X 1 ) =
le coefficient de corrélation linéaire qui est une mesure de la direc- p2
tion et de l’intensité de l’association linéaire entre deux variables. 2. a)
X n (Ω) = |[n , +∞[∪{0}
Exercice 11: EDHEC 2003 S
b) On reconnait la loi binomiale B(n + k − 1, p ) qui compte le
n désigne un entier naturel non nul. nombre succés au cours des n + k − 1 premières épreuves.
On effectue une suite d’épreuves de Bernoulli indépendantes La probabilité cherchée est donc
telles que pour chacune d’entre elles, la probabilité de succès soit
n + k − 1 n −1
 
égale à p , avec 0 < p < 1. p (1 − p )k
On note X n le nombre d’épreuves qu’il faut réaliser pour obtenir, n −1
pour la première fois n succès, pas forcément consécutifs (X n est
c) l’événment "X n = n + k " signifie que l’on a obtenu n − 1 succés
donc le numéro de l’épreuve où l’on obtient le n -ième succès). On
au cours des n +k −1 premiers tirages et le dernier tirage donne
convient que X n = 0 si l’on n’obtient pas n succès. aussi un succés, donc
1. Dans cette question seulement, on considère le cas n = 1.
n + k − 1 n −1 n +k −1 n
    
a) Reconnaître la loi de X 1 . P (X n = n +k ) = p p (1 − p )k = p (1−p )k
n −1 n −1
b) Donner l’espérance et la variance de X 1 .
d) Partant de la série entière géométrique
Dans toute la suite, on suppose que n ¾ 2.
+∞
2. a) Déterminer X n (Ω). 1 X
= xk
b) Pour tout entier naturel k , calculer la probabilité que l’on 1 − x k =0
obtienne n − 1 succès au cours des n + k − 1 premières
En dérivant r fois, on obtient : ∀x ∈] − 1, 1[.
épreuves.
+∞ 
k +r k

1 X
= x
(1 − x )r +1 k =r r

s.hajmi@gmail.com 16
VARIABLES ALÉATOIRES

En remplaçant par x = 1 − p , et r par n − 1, on obtient : Preuve

+∞  Vient de la relation entre les coefficients et la somme d’une série entière.


n −1+k

X 1
(1 − p )k =
n − 1 p n
k =0
Lemme 9.1
a n t n une série entière associée à une suite à termes positifs et
P
De là on obtient
+∞
convergente P pour t = 1, alors sa somme f est dérivable en 1 si et
X
P (X n = n + k ) = 1 seulement si n a n converge, auquel cas :
k =0 +∞
X
+∞
f 0 (1) = na n
P (X n ) = 1− P (X n = k + n ) = 0.
P
n=1
k =0

3. X n possède une espérance si et seulement si la série (k +


P

n )P (X n = k + n ) converge (elle est positive). Preuve


Or
⇐=) Ce n’est que le théorème de dérivation sous signe somme.
n +k −1 n =⇒) Sopposons que G X est dérivable en 1. pour h > 0 et N ∈ N.
 
(k + n )P (X n = k + n ) = (k + n ) p (1 − p )k
n −1 N
f (1 − h ) − f (1) X 1 − (1 − h )n
≥ an t n
n +k n
 
−h h
= n p (1 − p )k n=0
n En faisant tendre h vers 0. On obtient
n n + k n +1
 
= p (1 − p )k N
X
p n f 0 (1) ≥ n an
n n =0
= P (X n +1 = n + 1 + k )
p P
ceci pour tout N , d’où la convergence de la série n an
n
Donc X n possède une espérance qui vaut : p.
n −1 n −1 Corollaire 9.1
4. X n −1 = f (X n ), avec f : t → t −1 .
a n t n une série entière associée à une suite à termes positifs et
P
D’après le théorème de transfert f (X n ) admet une espérance si et
seulement si la série f (k + n )P (X n = k + n ) converge. t = 1, alors sa somme f est deux fois dérivable en 1
P
convergente pour P
Or si et seulement si n 2 a n converge, auquel cas :
+∞
n +k −1 n
 
n −1 X
f (k + n )P (X n = k + n ) = p (1 − p )k f 00 (1) = n(n − 1)a n
n +k −1 n −1
n=0
n +k −2 n
 
= p (1 − p )k
n −2
= p P (X n −1 = k ) Proposition 9.3
X admet un moment d’ordre 2 si et seulement si G X admet une déri-
D’où l’existence de l’espérance de f (X n ) qui vaut p . vée d’ordre 2 en 1 auquel cas :
G X00 (1) = E (X 2 ) − E (X )
9 Fonctions génératrices E (X 2
) = G X (1) + G X00 (1), Var(X) = G00X (1) + G0X (1) − (G0X (1))2
0

Si X est une
Pvariable aléatoire à valeurs dansPN, alors par convergence
de la série P (X = n) la série entière réelle P (X = n)t n est de rayon Preuve
de convergence aux moins égal à 1.
C’est une conséquence immédiate du corollaire précédent.

Définition 9.1
X une variable aléatoire,
P la somme de la série entière associée à la loi Exemple d’application 1: Détermination de E (X ) et Var(X) à
de probabilité de X P (X = n)t n s’appelle la fonction génératrice de l’aide de G X
X et se note G X .
+∞
1. Loi de Bernoulli : X ,→ B(p ).
X
G X (t ) = P (X = k )t k = E (t X ) +∞
X
k =0 G X (t ) = P (X = k )t k = t P (X = 1) + P (X = 0) = t p + (1 − p )
k =0

En dérivant et en utilisant le résultat de la proposition précé-


Proposition 9.1
dente :
La série entière définissant G X converge nomalement sur [−1, 1] et de
E (X ) = p , Var(X) = p − p2
classe C +∞ sur ] − 1, 1[
2. Loi Géométrique : X ,→ G (p ).
+∞ +∞
Preuve X X pt
G X (t ) = t k P (X = k ) = t k (1 − p )k −1 p =
1 − (1 − p )t
Pvient de l’inégalité |P (X = k )t | ≤ P (X = k ) et de la
k
La convergence normale k =1 k =1
convergence de la série P (X = k ), on en déduit la continuité de G X . le fait que
G X soit de classe C +∞
provient du théorème fondamental des séries entières. par conséquent :

1 1−p
Proposition 9.2 E (X ) = , Var(X) =
p p2
Si X une variable aléatoire à valeurs dans N, et G X sa fonction généra-
trice, alors 3. Loi de poisson : X ,→ (P ).
(n)
G (0)
∀n ∈ N : P (X = n ) = X +∞
n!
X tk k
G X (t ) = e −λ t = e λ(t −1)
Autrement dit La fonction génératrice définit la loi de probabilité k =0
k!

s.hajmi@gmail.com 17
VARIABLES ALÉATOIRES

Donc Définition 10.1


E (X ) = λ, Var(X) = λ On appelle fonction caractéristique d’une variable aléatoire réelle X
4. Loi Binômiale : X ,→ B(n , p ). continue la fonction ϕX de R dans C définie par :
Z
n  
n k ϕX (t ) = E (e i t X ) = e i t x f X (t )d t
X
G X (t ) = p (1 − p )n−k t k = (p t + 1 − p )n
k =0
k R

La fonction caractéristique de X ne dépend donc que de la loi de X.


E (X ) = np , Var(X) = npq
C’est la transformée de Fourier de cette loi.

Définition 10.2
Proposition 9.4
La transformée de Laplace (ou fonction génératrice des moments)
Si X 1 , ..., X n des variables aléatoires entières indépendantes, alors
d’une variable aléatoire réelle X est la fonction L X définie par
n
Y
GP GXi
Z
n

i =1
Xi
i =1 L X (t ) = E (e −t X ) = e −t x f X (t )d t
R

pour tout réel t tel que e −t X est intégrable.


Preuve La transformée de Laplace de X est définie sur un intervalle contenant
0 (éventuellement réduit à 0). Si cet intervalle est un voisinage de 0,
n
P
Xi
elle est DSE.
GP
n (t ) = E (t i =1 ) La transformée de Laplace d’une variable aléatoire réelle positive X
Xi
i =1
est définie sur [0, +∞[.
= E (T X 1 t X 2 ...t X i )
= E (t X 1 )..E (t X n ) (Par indépendantes des variables t X i )
Yn
= G X i (t ) 11 Convergences
i =1

Théorème 11.1 - Inégalité de Markov


Exemple d’application 2: Stabilité des lois à l’aide de la fonction Si X est une variables aléatoire positive admettant une espérance,
génératrice alors
E (X )
∀α > 0, P (X ≥ α) ≤
1. Si X et Y sont deux variables indépendantes suivants α
respectivement des lois de poisson P (λ), P (µ), alors
X + Y ,→ P (λ + µ). Nous allons le démontrer à l’aide de la
fonction génératrice. Preuve

Cas discrét
P :
E (X ) = x ∈D x P (X = x ) ≥ x ≥α x P (X = x ) ≥ αP (X ≥ α).
P

G X +Y (t ) = G X (t )G Y (t ) Cas continu
R +∞ : R +∞ Rα
E (X ) = −∞ t f X (t )d t = 0 t f X (t )d t ≥ α 0 f X (t )d t = αP (X ≥ α)
= e λ(t −1) e µ(t −1)
= e (λ+µ)(t −1) Théorème 11.2 - Inégalité Bienaymé-Tchebychev

Une fonction génratrice caractérise la loi, on reconnait une Si X est une variable aléatoire admettant un moment d’ordre 2, alors
loi P (λ + µ). Var(X)
∀β > 0, P (|X − E (X )| ≥ β ) ≤
2. Si X et Y sont deux variables indépendantes suivants β2
respectivement des loi binômiales B(n1 , p ), B(n2 , p ), alors
X + Y ,→ B(n1 + n2 , p ). En effet
Preuve

On applique l’inégalité de Markov à la variable aléatoire positive Y = (X − E (X ))2 ,


G X +Y (t ) = G X (t )G Y (t ) avec α = β 2 .

= (p t + 1 − p )n1 (p t + 1 − p )n2 Remarque 22


= (p t + 1 − p )n1 +n2
On peut interpreter cette inégalité par le fait que la variance permet
On reconnait la loi B(n1 + n2 , p ). de controler l’ecart entre X et E (X ).

Remarque 23

Une autre variante de l’inégalité de Bienaymé-Tchebychev est


10 Présentation de la fonction caractéristique : Var(X)
P (|X − E (X )| ≤ ") ≥ 1 −
transformée de Fourier, de Laplace "2
qui peut s’interpéter par le fait que X approche m = E (X ) à " près
Introduction :
avec une probabailité d’aux moins 1 − VarX
"2
Dans le cas de variables aléatoires à valeurs entières positives la fonc-
tion génératrice caractérise la loi, et permet de calculer les moments,
la fonction génératrice d’une somme de variables aléatoires indépen- Exemple 16
dantes est le produit des fonctions génératrices.
La transformation de Fourier (resp. de Laplace) étend ces propriétés au
On veut estimer le degré de fiabilité du flash d’un appareil photo,
cas des variables aléatoires réelles quelconques (resp. positives).
On note p la probabilité (inconnue) que le flash fonctionne quand
il est déclanché.

s.hajmi@gmail.com 18
VARIABLES ALÉATOIRES

[t ] [t ]
On procède à n déclenchement du flash et l’on pose S égale au FX n (t ) =
P
P (X n = k ) −→
P
P (Y = k ) = FY (t )
nombre de fois où il a fonctionné. k =0 k =0

En posant X k la variable de Bernoulli testant si le k-ième déclen-


chement a fonctionné, on a
Exemple 17
n
X
S= Xk
(pn ) une suite de réels de [0, 1] tel que lim npn = λ.
k =1 n→+∞
Si X n est une variable aléatoire qui suit la loi binomiale de para-
Considérons la variable aléatoire X = nS . mètre (n , pn ) alors la suite (X n )n≥1 converge en loi vers la variable
Sachant E (X k ) = p et V (X k ) = p (1 − p ) ≤ 1
4, l’inégalité de aléatoire suivant la loi de Poisson de paramètre λ.
Bienaymé-Tchebychev donne En effet : 
n n(n −1)...(n−1+k ) k
P (X n = k ) = k pnk (1−pn )n−k = k! pn (1−pn )−k (1−pn )pn .
1 n(n − 1)...(n − 1 + k ) ö n , d’autre part :
k
P (|X − p | ≤ ") ≥ 1 −
4n " 2 pn = nλ + o ( n1 ) ; Donc :
Pour " = 10−2 et n = 104 , on obtient que X = nS est une valeur lim (1−pn )−k = 0 et (1−pn )n = exp(n ln(1− nλ +o ( n1 ))) −→ exp(−λ)
n→+∞
approchée de p à " près avec une probabilité supérieure à 43 Donc P (X n = k ) −→ e −λ λk ! qui est une loi de Poisson.
k

Théorème 11.3 - Inégalité de Jensen Théorème 11.4 - admis


Si X est une variable aléatoire admettant une espérance et f : R → R La convergence en probabilité entraine la convergence en loi, la réci-
convexe sur R et si Y = f (X ) admet une espérance, alors proque est fausse
f (E (X )) ≤ E (f (x ))

Théorème 11.5 - Loi faible des grands nombres


Preuve Si (X n est une suite de variables aléatoires indépendantes
 et de

n
Posons m = E (X ), par convexité de f , on a f (X ) ≥ f (m ) + fd0 (m )(X − m ), en com- même loi, admettant des moments d’ordre 2. Alors la suite n1
P
Xk
posant par l’espérance et du fait que X − m est centrée, on obtient l’inégalité k =1
souhaitée. converge en probabilité vers la variable constante m = E (X 1 ) l’espé-
rance commune.
Définition 11.1
On dit qu’une suite de variables aléatoires converge en probabilité
Preuve
vers la variable aléatoire Y si
n
Posons Sn =
P
X k , par l’inégalité de BT on a
∀" > 0, lim P (|Y − X n | ≥ ") = 0 k =1
n→+∞

Var(X)
∀t > 0, P (|Sn − E (Sn )| ≥ t ) ≤
t2
Proposition 11.1 E (Sn ) = n E (X 1 ), Var(Sn ) = nVar(X 1 ).
Si (fk ) est une suite de fonctions R → R convergeant simplement vers Pour t = n", on obtient
g , et si X est une variable aléatoire de sorte que fk (X ) et g (X ) restent
Sn Var(X 1 )
des variables aléatoires, alors la suite de fonctions (fk (X )) converge P (|
n
− E (X 1 )| ≥ ") ≤
n "2
−→ 0
en probabilité vers g (X )
Théorème 11.6 - Théorème de la limite centrée
Preuve Si (X n ) est une suite de variables aléatoires indépendantes de même
loi admettant un moment d’ordre 2, alors la suite
Posons A k = {ω ∈ Ω, | fk (X (ω)) − g (X (ω))| ≥ "}. ‚ ‚ n ŒŒ
Posons ensuite Bk = ∪ A k , la suite (Bk ) est décroissante, par convergence simple, 1 X
n≥k p X k − nm
on a ∩ Bk = ;. par théorème de limite monotone, on aura 0 = lim P (Bk ). σ n k =1
k k →+∞
Comme 0 ≤ P (A k ) ≤ P (Bk ), donc lim P (A k ) = 0, ce qui traduit exactement la
k →+∞
converge en loi vers une loi normale centrée réduite N (0, 1) où m est
convergence en probabilité. l’espérance commune et σ l’écart-type commun.

Définition 11.2 — Convergence en loi Remarque 24


On dit que la suite de variables aléatoires (X n ) converge en loi vers   n

P
la variable aléatoire Y si ∀t ∈ R\DY , lim FX n (t ) = FY (t ) où DY est Xk
  
n p
1
=  σn  k =1
P
n→+∞ p
σ n
Xk − n m n − m  qui est la centré réduite
l’ensemble des points de discontinuités de FY . k =1
n
P
Xk
k =1
Proposition 11.2 de la variable aléatoire n
(X n ) une suite de variables aléatoires, on suppose que X n et Y sont à
valeurs dans N, alors
(X n ) converge en loi vers Y si et seulement si 12 Tableau récapitulatif de toutes les lois, leurs
∀k ∈ N : lim P (X n = k ) = P (Y = k ) espérances, variances
n→+∞

Voir annexe
Preuve

=⇒) P (X n = k ) = FX n (k ) − FX n (k − 1) −→ FY (k ) − FY (k − 1) = P (Y = k ).
⇐=), pour t < 0, on a bien FX n (t ) = 0 −→ 0 = PY (t ). supposons que t > 0,

s.hajmi@gmail.com 19

Vous aimerez peut-être aussi