Académique Documents
Professionnel Documents
Culture Documents
&
statistiques
Rivo Rakotozafy
2 Variables aléatoires 21
2.1 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.2 Evénements valeurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.3 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.4 Lois usuelles des variables aléatoires discrètes . . . . . . . . . . . . . 24
2.1.5 Variable aléatoire de Poisson . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Propriétés des fonctions de répartition . . . . . . . . . . . . . . . . . 27
2.2.3 Calcul de probabilité avec la f. r. . . . . . . . . . . . . . . . . . . . . 29
2.2.4 Cas des variables aléatoires discrètes . . . . . . . . . . . . . . . . . . 30
2.2.5 Cas des variables aléatoires à densité . . . . . . . . . . . . . . . . . . 31
2.2.6 Espérance d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . 34
2.3 Convergences monotone et dominée . . . . . . . . . . . . . . . . . . . . . . . 37
i
2.4 Moments des variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5 Indépendances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
ii
Chapitre 1
1.1.2 L’univers Ω
• Ω : ensemble de toutes les issues (ou les résultats possibles) qui peuvent être obtenues
au cours d’une expérience aléatoire.
• ω ∈ Ω : les issues observées de l’expérience aléatoire, on les appelle éventualités ou
évènements élémentaires.
Exemple 1.1.1 (Lancer de pièce de monnaie)
1) On lance une pièce, un tirage à pile ou face : on choisira Ω = {P, F }.
2) On lance une pièce deux fois de suite, deux tirages à pile ou face : on choisira Ω =
{P F, P P, F P, F F }.
3) On lance une pièce autant de fois jusqu’à la première apparition d’un pile, on choisira
Ω = {P, F P, F F P, F F F P, . . .}.
4) On lance la pièce n fois de suite, on choisira Ω = {P, F }n .
∗
5) On lance la pièce indéfiniment : on choisira Ω = {P, F }N .
Dans ces exemples, Ω est fini ou dénombrable : c’est le cas discret.
1
Exemple 1.1.2 (Lancer de dé à six faces)
1) On lance un dé : on choisit Ω = {1, 2, 3, 4, 5, 6}.
2) On lance deux dés : on choisit Ω = {1, 2, 3, 4, 5, 6} × {1, 2, 3, 4, 5, 6} = {1, 2, 3, 4, 5, 6}2 .
3) On compte le nombre de jets d’un dé avant d’obtenir un premier 6 : on choisira Ω = N∗ .
Dans ces exemples, Ω est fini ou dénombrable, on est toujours dans le cas discret.
Exemple 1.1.3 (Tirage de boules dans une urne)
Une urne contient 1 boule blanche et 4 boules rouges.
1) On tire successivement deux boules avec remise :
Dans ces exemples, Ω est fini, on est toujours dans le cas discret.
Exemple 1.1.4 (Cas continu)
1) On mesure de la taille d’un individu, dont le résultat est un réel strictement positif,
l’ensemble Ω = R+ .
2) On mesure la durée de vie d’une batterie de voiture, Ω = R+ ou Ω = [0, T ], avec T
suffisament grand.
3) On s’intéresse à la courbe d’évolution de la température sur une journée dans une station
météo, Ω = C 0 ([0, T ], R) (ensemble des fonctions continues de [0, T ] vers R).
4) La trajectoire d’un grain de pollen en suspension dans un fluide, Ω = C 0 (R+ , R).
Dans ces exemples, Ω est infini non dénombrable : c’est le cas continu.
Les notions de la théorie des ensembles s’appliquent à l’ensemble Ω, à ses éléments et à ses
parties, mais la théorie des probabilités utilise une terminologie particuliere décrit par le
tableau Table 1.1.
2
Notations Terminologie ensembliste Terminologie probabiliste
ω∈Ω élément évènement élémentaire
A⊆Ω partie, sous-ensemble évènement
Ω partie pleine évènement certain
∅ partie vide évènement impossible
A∩B intersection de A et B A et B sont réalisés
A∪B reunion de A et B A et/ou B sont réalisés
Ω\A ou AC complémentaire de A évènement contraire de A
A ⊆ B ou A ⇒ B A est inclus dans B A implique B
A∩B =∅ A et B sont disjoints A et B sont incompatibles
+∞
!
[
ω∈ An ⇔ ∃n ∈ N : ω ∈ An
n=0
3
2) Tribu triviale : F = {∅, Ω} est une tribu de Ω.
3) Tribu engendrée par une partie : F = {∅, A, AC , Ω} est une tribu de Ω.
Théorème 1.1.7
Si A est une tribu sur un ensemble Ω alors
a) ∅ ∈ A.
b) ∀A, B ∈ A, A ∪ B ∈ A, A ∩ B ∈ A et A\B ∈ A.
∞
!
\
c) ∀(An )n∈N , une suite d’évènements de A, An ∈ F
n=0
Preuve
a) Ω ∈ A, donc ΩC = ∅ ∈ A.
b) Soit A, B ∈ A. En choisissant A0 = A, A1 = B et An = ∅ pour n ≥ 2,
∞
[
A∪B = An ∈ A.
n=0
Exemple 1.1.8 (Evènements)
Soit (An )n∈N une suite d’événements de l’espace mesurable (Ω, F) :
\ \
1) An correspond à la réalisation de tous les An , c’est à dire que ω ∈ An si tous les
n≥0 n≥0
An sont réalisés par ω.
[ [
2) An correspond à la réalisation d’au moins un An , c’est à dire que ω ∈ An si
n≥0 n≥0
l’un au moins des An est réalisé par ω.
[\
3) lim inf n→∞ An = Ak correspond à la réalisation de tous les An , sauf un nombre fini,
n≥0k≥n
c’est à dire que ω ∈ lim inf n→∞ An si tous les évènements An , sauf un nombre fini, sont
réalisés par ω.
\[
4) lim supn→∞ An = Ak correspond à la réalisation d’une infinité de An , c’est à dire
n≥0k≥n
que ω ∈ lim supn→∞ An si une infinité de An sont réalisés par ω.
4
1.1.4 La mesure de probabilité P
Une fois fixés un univers Ω et une tribu F de Ω, on peut définir proprement ce qu’est
une probabilite sur (Ω, F). Une probabilité est une application qui associe un nombre à un
évènement de la tribu F et qui possède les propriétés suivantes :
P1 : A ∈ F ⇒ P(A) ≥ 0 (positivité),
La probabilité doit être additive pour les évènements incompatibles, c’est à dire A ∩ B = ∅ ⇒
P(A ∪ B) = P(A) + P(B). Il faut de plus qu’elle soit σ-additive, c’est à dire que si la suite
dénombrable (An )n=0,...,+∞ est composé d’évènements deux à deux disjoints, alors :
∞
! ∞
[ X
P2 : P An = P(An ) (additivité dénombrable),
n=0 n=0
Pour que la mesure P soit une probabilité il faut qu’elle soit normalisée :
P3 : P(Ω) = 1 (normalisation),
Le triplet (Ω, F, P) est un espace probabilisé.
Propriétés élémentaires
Soit P une mesure de probabilité sur (Ω, F).
Théorème 1.1.9
a) P(∅) = 0,
b) Si A0 , . . . , An sont des évènements deux à deux incompatibles
n
! n
[ X
P Ak = P(Ak ),
k=0 k=0
c) ∀A ∈ F, P(AC ) = 1 − P(A),
d) ∀A ∈ F, P(A) ∈ [0, 1].
Preuve
a) En prenant An = ∅ pour tout n ∈ N, on obtient :
+∞
X
P(∅) = P(∅)
n=0
et donc P(∅) = 0.
b) On choisit Ak = ∅ pour k > n et on exploite
n
! n
[ X
P Ak = P(Ak ),
k=0 k=0
5
c) Les événements A et AC forment une partition de Ω, donc
Théorème 1.1.10
Soit A et B deux événements :
a) A ⊂ B ⇒ P(A) ≤ P(B),
b) P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
Preuve
a) Si A ⊂ B alors B est la réunion disjointe de A et de B\A.
L’égalité P(B) = P(A) + P(B\A) donne alors P(B) ≥ P(A).
b) A ∪ B est la réunion disjointe de A et de B\A. On a donc P(A ∪ B) = P(A) + P(B\A).
Or B est la réunion disjointe de B\A et de A ∩ B. Donc P(B) = P(B\A) + P(A ∩ B)
d’où le résultat.
Continuité monotone
Théorème 1.1.11
Si (An ) est une suite croissante d’événements alors :
+∞
!
[
P(An ) −−−−−→
n→+∞ P An
n=0
Preuve Posons B0 = A0 puis, pour tout n ≥ 1, Bn = An \An−1 . Puisque la suite (An ) est
croissante pour l’inclusion, les événements de la suite (Bn ) sont deux à deux disjoints. De
plus
[n +∞
[ +∞
[
An = Bk et An = Bn
k=0 n=0 n=0
Par conséquent
+∞
! +∞
! +∞ n
[ [ X X
P An =P Bn = P(Bn ) = lim P(Bk )
n→+∞
n=0 n=0 n=0 k=0
6
avec n
X
P(Bk ) = P(An )
k=0
Corrolaire 1.1.12
On a : ! !
+∞
[ n
[
P An = lim P Ak
n→+∞
n=0 k=0
Théorème 1.1.13
Si (An ) est une suite décroissante d’événements alors :
+∞
!
\
P(An ) −−−−−→
n→+∞ P An
n=0
Preuve Posons Bn = AC
n . (Bn ) est une suite croissante avec
+∞
!C +∞ +∞
[ \ \
C
Bn = Bn = An
n=0 n=0 n=0
Corrolaire 1.1.14
On a : ! !
+∞
\ n
\
P An = lim P Ak
n→+∞
n=0 k=0
7
• A l’événement "on n’obtient jamais de 6",
• An l’événement "on n’a pas obtenu de 6 lors des n premiers lancers"
En supposant les lancers indépendants :
n
5
P(An ) =
6
Puisque la suite (An ) est décroissante, on a par continuité :
+∞
!
\
P(A) = P An = lim P(An ) = 0
n→+∞
n=0
Preuve On traite en premier lieu, par récurrence, le cas d’une suite d’évènements finie
A0 , A1 , . . . , An . Il s’agit de montrer que :
n
! n
[ X
P Ak ≤ P(Ak )
k=0 k=0
L’inégalité est vraie pour n = 0. On la suppose vraie pour n, et on considère la suite d’évè-
nements A0 , AS1n, . . . , An , An+1 .
Soit E = k=0 Ak , et on a P(E) ≤ nk=0 P(Ak ) (par hypothèse de récurrence). Alors
P
n+1
!
[
P Ak = P(E ∪ An+1 ) = P(E) + P(An+1 ) − P(E ∩ An+1 ) ≤ P(E) + P(An+1 )
k=0
d’où !
n+1
[ n+1
X
P Ak ≤ P(E) + P(An+1 ) ≤ P(Ak )
k=0 k=0
Soit maintenant
Sn une suite dénombrable d’évènements (An )n≥0 . Pour tout entier n ≥ 0, soit
En = k=0 Ak , alors
Xn
P(En ) ≤ P(Ak )
k=0
8
et pour tout n, En ⊂ En+1 (suite croissante d’évènements, par conséquent :
! +∞
[ X
lim P(En ) = P An ≤ P(Ak )
n→+∞
n≥0 k=0
Définition 1.1.17
On dit qu’un événement A est négligeable si P(A) = 0.
Proposition 1.1.19
Un événement inclus dans un événement négligeable est négligeable
Preuve Car
A ⊂ B ⇒ P(A) ≤ P(B)
Proposition 1.1.20
Une réunion finie ou dénombrable d’événements négligeables est négligeable.
Preuve Car !
+∞
[ +∞
X
P An ≤ P(An )
n=0 n=0
Définition 1.1.21
On dit qu’un événement A est presque sûr si P(A) = 1. Ceci signifie encore que l’événe-
ment AC est négligeable.
9
• L’événement certain est presque sûr.
• Dans l’exemple 1.1.15, obtenir de six en lançant indéfiniment un dé équilibré est presque
sûr.
Proposition 1.1.23
Un événement contenant un événement presque sûr est presque sûr.
Proposition 1.1.24
Une intersection finie ou dénombrable d’événements presque sûrs est presque sûre.
Définition 1.2.1
Soit B un événement de probabilité non nulle (P(B) > 0). Pour tout évènement A ∈ F,
la probabilité conditionnelle de A, sachant B est définie par :
P(A ∩ B)
P(A|B) =
P(B)
1/6 1 0
P(A|B) = = et P(A|B C ) = =0
1/2 3 1/2
10
• quelle est la probabilite qu’elle soit blanche, sachant que la boule tirée n’est pas noire ?
Si on note B l’évènement "la boule tiree n’est pas noire", on a donc P(B) = 1/10 et la
réponse à la question est :
P(A ∩ B) P(A) 9
P(A|B) = = = ,
P(B) P(B) 10
donc une grande probabilité.
Puisqu’on peut calculer la probabilité "sachant B" de n’importe quel événement A de la tribu
F, une question naturelle est de se demander si P(.|B) est une probabilité sur (Ω, F).
Théorème 1.2.4
Si B est un événement de Ω vérifiant P(B) > 0 alors l’application PB : F → R+ donnée
par :
A ∈ F, PB (A) = P(A|B)
définit une probabilté sur (Ω, F).
Preuve
Normalisation :
P(Ω ∩ B)
PB (Ω) = =1
P(B)
σ-additivité : pour (An )n∈N une suite d’événements deux à deux incompatibles :
+∞
! +∞
P +∞
S P+∞
[
n=0 (An ∩ B) n=0 P(An ∩ B)
X
PB An = = = PB (An ).
n=0
P(B) P(B) n=0
Théorème 1.2.5
Soit A, B deux événements de F. On a :
Corrolaire 1.2.6
Soit n événements A1 , . . . , An de F tels que P(A1 ∩ · · · ∩ An−1 ) > 0, alors on a :
11
Preuve Par récurrence sachant que le théorème 1.2.5 ci-dessus avec A = An+1 et B =
(A1 ∩ · · · ∩ An ) nous donne :
P (A1 ∩ · · · ∩ An+1 ) = P (A1 ∩ · · · ∩ An ) P(An+1 |A1 ∩ · · · ∩ An )
Définition 1.2.7
On appelle système complet d’événements toute famille (Ai )i∈I d’événements avec en-
semble fini ou dénombrable vérifiant :
1) ∀i, j ∈ I, i 6= j ⇒ Ai ∩ Aj = ∅
S
2) i∈I Ai = Ω
Autrement dit, la famille (Ai )i∈I est une famille au plus dénombrable d’événements deux
à deux incompatibles et de réunion Ω.
Exemple 1.2.8
Théorème 1.2.9
Si (Ai )i∈I est un système complet d’événements de l’espace probabilisé (Ω, F, P) alors pour
tout événement B de Ω. X
P(B) = P(B|Ai ) P(Ai )
i∈I
Preuve On a : !
[ [
B =B∩Ω=B∩ Ai = (B ∩ Ai )
i∈I i∈I
Les événements (B ∩ Ai ) étant deux à deux incompatibles, que l’ensemble soit fini ou dénom-
brable, on obtient X X
P(B) = P(B ∩ Ai ) = P(B|Ai ) P(Ai )
i∈I i∈I
avec la formule des probabilités composées.
En pratique, on utilise très souvent cette formule des probabilités totales en conditionnant
successivement par un événement et son contraire, c’est-à-dire en prenant tout simplement
une partition de type {A, AC }, ce qui donne :
P(B) = P(B|A)P(A) + P(B|AC )P(AC ).
12
Exemple 1.2.10 (Urnes numétotés)
On dispose de six urnes numérotées de 1 à 6. L’urne numéro k comporte k boules blanches
et une boule rouge. Un joueur lance un dé équilibré puis choisit une boule dans l’urne corres-
pondant au résultat du dé. Déterminons la probabilité que la boule tirée soit blanche.
On considère le système complet d’événements (A1 , . . . , A6 ) avec Ak = "le dé donne la valeur
k" et on étudie l’événement B = "la boule tirée est blanche". On a :
1 k
P(Ak ) = et P(B|Ak ) =
6 k+1
Par formule des probabilités totales :
6
X 1 k 617
P(B) = × =
k=1
6 k+1 840
On a : n−1
1 5 1
P(An ) = et P(B|An ) =
6 6 n
Par la formule des probabilités totales :
+∞ n−1 +∞ n−1 +∞ n
X 1 5 1X1 5 1X1 5 1 5 1
P(B) = = = = − ln 1 − = ln (6)
n=1
6n 6 6 n=1 n 6 5 n=1 n 6 5 6 5
Théorème 1.2.12
Si A et B sont deux événements de probabilités non nulles alors :
P(B|A) P(A)
P(A|B) =
P(B)
13
Preuve Le résultat est immédiat car :
Corrolaire 1.2.13
Si (Ai )i∈I est un système complet d’événements alors pour tout événement B de probabilité
non nulle et tout k ∈ I
P(B|Ak ) P(Ak )
P(Ak |B) = P
i∈I P(B|Ai ) P(Ai )
Preuve Il suffit d’employer la formule précédente en exploitant celle des probabilités to-
tales : X
P(B) = P(B|Ai ) P(Ai )
i∈I
C
En pratique, lorsqu’on considère une partition de type {A, A }, cette formule devient :
P(B|A) P(A)
P(A|B) =
P (B|A) P(A) + P (B|AC ) P(AC )
1.3 Indépendances
Soit (Ω, F, P) un espace probabilisé.
14
1.3.1 Indépendance de 2 événements
Définition 1.3.1
On dit que deux événements A et B de l’espace probabilisé (Ω, F, P) sont indépendants si
Proposition 1.3.2
Si A et B sont des événements indépendants alors A et B C le sont aussi
Preuve Puisque Ω = B ∪ B C
P(A) = P(A ∩ (B ∪ B C )) = P((A ∩ B) ∪ (A ∩ B C ))
Or A ∩ B) et (A ∩ B C ) sont deux évènements incompatibles,
P(A) = P(A ∩ B) + P(A ∩ B C ) = P(A) P(B) + P(A ∩ B C )
Ainsi
P(A ∩ B C ) = P(A) (1 − P(B)) = P(A) P(B C )
C C C
Remarque 1.3.2 On a aussi A et B sont indépendants ainsi que A et B
Définition 1.3.3
On dit que les événements d’une famille quelconque (Ai )i∈I d’événements de l’espace
probabilisé (Ω, F, P) sont
(i) 2 à 2 indépendants, si pour tout couple (i, j) ∈ I × I d’indices distincts Ai et Aj
sont indépendants ;
(ii) mutuellement indépendants, si pour tout ensemble fini d’indices distincts J ⊂ I,
!
\ Y
P Aj = P(Aj ).
j∈J j∈J
15
Attention : il ne faut pas confondre l’indépendance mutuelle et l’indépendance deux
à deux. Quand on parlera d’une famille d’événements indépendants (sans plus de précisions),
il faudra désormais comprendre mutuellement indépendants.
Proposition 1.3.4
Si (Ai )i∈I est une famille d’événements mutuellement indépendants alors, pour toute par-
tie J ⊂ I, la sous-famille (Ai )i∈J est, elle aussi, constituée d’événements mutuellement
indépendants.
Rien que pour n = 10 événements, il y aurait déjà plus de 1000 relations à vérifier ! Ceci
n’est bien sûr pas raisonnable. En fait, c’est le contexte qui dicte si l’on a affaire à une
famille d’événements indépendants : c’est typiquement le cas lorsqu’on a une répétition
d’épreuves (lancers successifs d’une pièce, etc.), le résultat de chacune d’entre elles
n’ayant aucune espèce d’influence sur le résultat des autres.
2) La formule de Poincaré se simplifie grandement en cas d’événements indépendants. En
effet, la probabilité qu’au moins l’un d’entre eux se réalise est toujours égale à :
et grâce à l’indépendance
P(A1 ∪ · · · ∪ An ) = 1 − P(AC C
1 ) . . . P(An ). = 1 − (1 − P(A1 )) . . . (1 − P(An )).
16
Définition 1.4.1
Pour tout ω ∈ Ω, on introduit les probabilités élémentaires
pω = P({ω})
Théorème 1.4.2
La famille (pω )ω∈Ω est une famille de réels positifs, sommable et de somme égale à 1.
Théorème 1.4.3
Si (pω )ω∈Ω est une famille de réels positifs, sommable et de somme égale à 1, alors il existe
une unique probabilité P sur (Ω, F) vérifiant :
∀ω ∈ Ω, P({ω}) = pω
Preuve Supposons que P est une probabilité solution. Pour tout A ⊂ Ω, cet évènement est
une réunion disjointe d’évènements élémentaires :
[
A= {ω}
ω∈A
17
La probabilité P est donc déterminée de façon unique. Supposons P : P(Ω) → R+ définie
par : X
∀A ⊂ Ω, P(A) = pω .
ω∈A
L’application P est bien définie à valeurs dans R+ , et P(Ω) = 1 car par hypothèse la
S somme
de pω vaut 1. Soit (An )n∈N une suite d’événements deux à deux disjoints et A = +∞ n=0 An .
Par sommation par paquet
X +∞ X
X
pω = pω
ω∈A n=0 ω∈An
et donc
+∞
X
P(A) = P(An )
n=0
Notons δω la mesure de Dirac au point ω :
1 si ω ∈ A
∀A ⊂ Ω, δω (A) =
0 sinon.
1) Loi uniforme sur Ω = {1, 2, . . . , n}, on est ici dans le cas où Ω est fini et que les ω sont
équiprobables, c’est à dire :
1 1
pω = = .
Card(Ω) n
On obtient alors la règle d’équiprobabilité :
nombre de cas f avorables à A Card(A) #A
P(A) = = = .
nombre de cas possible Card(Ω) #Ω
Le lancé d’un dè à six faces équilibré est modélisé par un tel espace probabilisé (n = 6).
2) Loi de Bernoulli de paramètre p, sur Ω = {0, 1} décrit le comportement d’une expé-
rience aléatoire qui possède deux résultats possibles traditionnellement appelés succès
représenté par {1} et échec par {0} :
p1 = P({1}) = p, et p0 = P({0}) = (1 − p)
18
3) Loi binomiale de paramètre n ∈ N∗ , p ∈ [0, 1] sur Ω = {0, 1, . . . , n} :
pn = (1 − p)n−1 p
λk −λ
pk = P({k}) = e pour k ∈ N
k!
Cette loi de probabilité permet de mesurer le nombre d’événements qui se produisent
dans un intervalle de temps donné, lorsque ces événements sont plutôt rares et indé-
pendants.
1
f (x) = 1[a,b] (x)
b−a
19
2) Loi de Laplace-Gauss ou loi normale de paramètres m ∈ R, σ 2 :
1 (x−m)2
f (x) = √ e− 2σ 2
2πσ 2
Elle est dite loi normale centrée, réduite si m = 0 et σ = 1.
3) Loi exponentielle de paramètre λ > 0 :
20
Chapitre 2
Variables aléatoires
Définition 2.1.1
On appelle variable aléatoire discrète définie sur l’espace probabilisé Ω et à valeurs dans
un ensemble E toute application X : Ω → E vérifiant :
1) l’ensemble des valeurs prises X(Ω) est fini ou dénombrable ;
2) ∀x ∈ X(Ω), X −1 ({x}) = {ω ∈ Ω|X(ω) = x} est élément de la tribu F.
Lorsque E = R, on parle de variable aléatoire réelle.
Exemple 2.1.2 On lance deux dés, et on note X la somme des chiffres affichés. La variable
aléatoire discrète X est à valeurs dans E = {2, 3, . . . , 12}.
Exemple 2.1.3 On lance deux pièces de monnaies, et on note X le nombre de "Pile" obte-
nue. La variable aléatoire discrète X est à valeurs dans E = {0, 1, 2}.
21
Exemple 2.1.4 On tire avec remise n boules dans une urne contenant des boules blanches
et rouges en proportion p et q = (1 − p) respectivement. On note X le nombre de boules
blanches obtenues dans un tirage, X est une variable aléatoire discrète à valeurs dans E =
{0, 1, . . . , n}.
Exemple 2.1.5 On lance une pièce de monnaie biaisée indéfiniment, c’est à dire que la
probabilité d’obtenir "Pile" est égale à p ∈]0, 1[ (P({P ile}) = p) ,et la probabilité d’obtenir
"Face" est égale à q = (1 − p) (P({F ace}) = q). On suppose que les différentes lancers sont
indépendantes les unes des autres. On note N le nombre de lancers nécessaires pour obtenir
le premier "Pile". La variable aléatoire discrète N est à valeurs dans E = N∗ .
Exemple 2.1.6 On lance indéfiniment un dé et l’on note Xn la valeur obtenue lors du n-
ième lancer. (Xn )n≥1 est une suite de variables aléatoires discrètes. On pose :
T = min (n ∈ N∗ |Xn = 6) et T = +∞ si le min porte sur l0 ensemble vide
T est une variable aléatoire discrète à valeur dans N∗ ∪ {+∞}. La variable aléatoire T cor-
respond au temps d’attente du premier 6.
Définition 2.1.7
Soit X : Ω → E une variable aléatoire discrète. Pour tout x ∈ E, on note (X = x)
l’événement
X −1 ({x}) = {ω ∈ Ω|X(ω) = x}
Il s’agit bien d’un événement par définition d’une variable aléatoire discrète et l’on peut
en calculer la probabilité
P(X = x)
Exemple 2.1.8 On lance deux dés et X désigne la somme de leurs valeurs. L’événement
(X = 12) correspond au cas où les deux dés valent 6, c’est à dire (X = 12) = X −1 ({12}) =
{(6, 6)}.
Remarque 2.1.1 (X ∈ A) est bien un événement. En effet, X(Ω) étant au plus dénom-
brable, [
(X ∈ A) = (X = x)
x∈X(Ω)∩A
est une réunion au plus dénombrable d’événements. On peut alors calculer la probabilité
P(X ∈ A).
Définition 2.1.9
Si X est une variable aléatoire discrète réelle et si a ∈ R, on introduit l’événement
(X ≤ a) = X −1 (] − ∞, a]) = {ω ∈ Ω|X(ω) ≤ a}
22
Figure 2.1 – Variable aléatoire X à valeurs dans l’espace d’état E. La mesure PX , loi de
probabilité de X sur l’espace mesurable (E, E) se déduit de la mesure P sur Ω.
Exemple 2.1.1 La loi de probabilité d’une variable aléatoire X à valeurs dans N est donnée
par les réelles pi = cλi /i!, i = 0, 1, 2, . . . où X est un réel positif. On veut calculer :
a) la constante c pour qu’on aît bien une mesure de probabilité,
b) P({X = 0}),
c) P({X > 2}),
P∞
Pour calcule la constante c, on utilise le fait que i=0 pi = 1, et on a l’égalité suivante :
∞
X λi
c = 1, d’où c = e−λ .
i=0
i!
λ0
P({X = 0}) = p0 = e−λ = e−λ .
0!
23
Et pour la question c), on a :
P({X > 2}) = 1 − P({X ≤ 2})
= 1 − P({X = 0}) − P({X = 1}) − P({X = 2})
λ2
= 1 − e−λ − λe−λ − e−λ
2
Variables binomiales
Considérons maintenant n épreuves indépendantes de Bernouilli, chacune ayant p pour
probabilité de succès et (1p) pour probabilité d’échec. La variable aléatoire X qui compte
le nombre de succès sur l’ensemble des n épreuves est dite variable aléatoire binomiale de
paramètres (n, p). Une variable de Bernoulli est donc une variable binomiale de paramètres
(1, p). La loi de probabilité d’une variable aléatoire binomiale de paramètres (n, p) est donnée
par :
p(k) = pk = Cnk pk (1 − p)n−k , k = 0, 1, . . . , n (2.3)
C’est bien une mesure de probabilité car :
n
X n
X
pi = Cnk pk (1 − p)n−k = [p + (1 − p)]n = 1.
k=0 k=0
24
Les variables aléatoires X dont la loi est donnée par 2.4 sont appelées variables aléatoires
géométriques (ou de Pascal) de paramètre p.
Exemple 2.1.2 Une urne contient N boules blanches et M noires. On tire des boules une
par une avec remise jusqu’à l’apparition d’une boule noire.
a) Quelle est la probabilité qu’il faille exactement n tirages ?
b) Quelle est la probabilité qu’il faille au moins k tirages ? (la première boule noire tirée
est à partir du k–ième tirage).
Soit X le nombre de tirages nécessaires jusqu’au premier tirage de la boule noire. X est
une variable aléatoire géométrique de paramètre p = MM +N
.
a) Calcul de P(X = n) :
n−1
M N n−1
N M
P(X = n) = =
M +N M +N (M + N )n
b) Calcul de P(X ≥ k) :
∞ n−1
X N M
P(X ≥ k) =
n=k
M +N M +N
"
X ∞ n−1 X k−1 n−1 #
M N N
= −
M +N n=1
M + N n=1
M +N
" k−1 #
1 − MN+N
M 1
= −
M +N 1 − MN+N 1 − MN+N
k−1
N
= .
M +N
On peut obtenir directement ce résultat puisque la probabilité qu’il faille au moins k
essais pour obtenir un premier succès est égale à celle de n’avoir que des échecs sur les
k1 premières épreuves, c’est à dire :
P(X ≥ k) = (1 − p)k−1 .
25
Variables aléatoires hypergéométriques
On tire sans remise un échantillon de n boules d’une urne en contenant N , desquelles N p
sont blanches et N N p noires. Soit X le nombre de boules blanches tirées. On a :
CNk p CNn−k
−N p
P(X = k) = , k = 0, 1, 2, . . . , min (n, N p). (2.6)
CNn
S’il existe certaines valeurs de n, N et p pour lesquelles la loi d’une variable aléatoire X vérifie
2.6, dans ce cas la variable est dite variable aléatoire hypergéométrique.
26
Lorsqu’on réalise n épreuves indépendantes ayant p comme probabilité d’obtenir un succès et
si n est grand et p assez petit pour rendre np moyen. Dans ce cas, le nombre de succès est une
variable aléatoire de répartition approximativement poissonienne avec paramètre λ = np. La
détermination de cette grandeur λ sera en général empirique.
Exemple 2.1.4 On admet que la probabilité de défaut pour un objet fabriqué à la machine
est 0.1. Trouver la probabilité qu’un lot de 10 objets comprenne au plus un élément affecté
d’un défaut.
Le calcul de probabilité (solution exacte) avec la loi binomiale de paramètre (10, 0.1) est :
0 1
C10 (0.1)0 (0.9)10 + C10 (0.1)1 (0.9)9 = 0.7361.
Définition 2.2.1
On appelle fonction de répartition d’une v.a. X : Ω → R la fonction FX définie sur R par
En d’autres termes, F (x) est la probabilité que la variable aléatoire X prenne une valeur
inférieure ou égale à x.
27
Proposition 2.2.2
a) FX est une fonction non décroissante (croissante),
b) limx→−∞ FX (x) = 0, et limx→+∞ FX (x) = 1.
c) FX est continue à droite, et admet une limite à gauche :
On dit que la fonction FX est cadlag (continue à droite avec une limite à gauche).
d) En fait si x n’est pas un atome de X, alors alors FX est continue à gauche (donc
continue).
Preuve
a) Elle est dû à la croissance de la mesure de probabilité P. En effet, si x < y, l’événement
{X ≤ x} ⊂ {X ≤ y}, donc
P({X ≤ x}) ≤ P({X ≤ y}), d’où FX (x) ≤ FX (y).
T
b) Soit An =] − ∞, −n], on a ( n An ) = ∅, ensemble de mesure PX nulle, si bien que :
!
\
lim FX (x) = lim FX (−n) = lim PX (An ) = PX An = 0.
x→−∞ n→+∞ n→+∞
n
S
Soit Bn =] − ∞, n], on a ( n Bn ) =] − ∞, +∞[= R, de mesure PX (R) = P(X ∈ R) = 1,
si bien que :
!
[
lim FX (x) = lim FX (n) = lim PX (Bn ) = PX An = P(X ∈ R) = 1.
x→+∞ n→+∞ n→+∞
n
T
c) SoitTAn =] − ∞, x + 1/n], d’intersection ( n An ) =] − ∞, x], ensemble de mesure
PX ( n An ) = FX (x), si bien que :
limy→x+ FX (y) = limn→+∞ FX (x + 1/n) =T PX (X ≤ x + 1/n)
= limn→+∞ PX (An ) = PX ( n An )
= FX (x).
S
S Bn =] − ∞, x − 1/n], de réuion ( n Bn ) =] − ∞, x[, ensemble de mesure
Ensuite,
PX ( n Bn ) = PX (X < x).
Attention : P(X < x) peut être distinct de P(X ≤ x) car :
P(X ≤ x) − P(X < x) = P({X ≤ x}\{X < x}) = P(X = x)
qui peut être non nul si la loi de X a un atome en x. On a alors :
limy→x− FX (y) = limn→+∞ FX (x − 1/n) =TPX (X ≤ x − 1/n)
= limn→+∞ PX (Bn ) = PX ( n Bn )
= P(X < x).
28
d) On constate que si P(X = x) = 0, alors P(X < x) = P(X ≤ x) et on la continuité à
gauche manquante.
Remarque 2.2.1 Toute fonction FX : R → [0, 1] qui est croissante continue à droite et avec
une limite à gauche en tout point et telle que :
lim FX (t) = 0, et lim FX (t) = 1,
t→−∞ t→+∞
est la fonction de répartition d’une certaine variable aléatoire X. De plus l’ensemble des
points où la fonction FX a un saut est l’ensemble des atomes de X.
On remarquere que P({X < y}) n’est pas nécessairement égal à F (y) puisque cette valeur
comprend également la probabilité P({X = y}).
Exemple 2.2.1 La fonction de répartition de la variable aléatoire X est donnée par :
0 x<0
x2
0≤x<1
2
F (x) = 3 1≤x<2
11
2≤x<3
12
1 3≤x
29
Calculer
a) P({X < 3}),
b) P({X = 1}),
c) P X > 21 ,
c)
1 1
P X> = 1−P X≤
2 2
1 3
= 1−F = .
2 4
d)
1
P({2 < X ≤ 4}) = F (4) − F (2) = .
12
Dans le cas où les valeurs possibles de la variable aléatoire X sont x1 , x2 , . . . avec x1 < x2 <
. . . , la fonctionde rérépartition est une fonction en escalier. Ses valeurs seront constantes sur
les intervalles [xi−1 , xi [, et elle aura unsaut de taille pi en xi , i = 1, 2, . . . . Dans le cas par
exemple d’une variable aléatoire X dont la loi est donnée par :
1 1 1 1
p(1) = p1 = p(2) = p2 = p(3) = p3 = p(4) = p4 =
4 2 8 8
30
sa fonction de répartition sera
0 x<1
14 1 ≤ x < 2
3
F (x) = 4 2 ≤x <3
7
3≤x<4
8
1 4≤x
Définition 2.2.3
Soit (X, F) un espace mesurable muni de deux mesures µ et ν. On dit que µ est absolument
continue par rapport à ν si pour tout A ∈ F, on a :
ν(A) = 0 ⇒ µ(A) = 0.
On le note µ << ν.
Les lois des v.a. sont des mesures sur l’espace (R, B(R)). Cet espace a pour mesure de
référence la mesure de Lebesgue λ. On peut donc se demander s’il y a une relation d’absolue
continuité entre la loi PX d’une v.a. X et la mesure de Lebesgue λ sur R.
Ce n’est évidemment pas toujours vrai. Par exemple la loi de Poisson P(α) n’est pas absolu-
ment continue par rapport à λ, puisque X ∼ P(α) :
αn −α
PX ({n}) = e , alors que λ({n}) = 0.
n!
31
Plus généralement, aucune loi discréte n’est absolument continue par rapport à λ puisque
qu’une telle loi PX a des atomes :
PX ({x}) = P(X = x) => 0, alors que λ({x}) = 0.
Par définition, les lois qui sont absolument continues par rapport à la mesure de Lebesgue
sont les lois à densité :
Définition 2.2.5
Une v.a. X est une variable aléatoire de densité f si PX << λ et
Z Z b
PX (A) = P(X ∈ A) = f dλ, PX ([a, b]) = P(X ∈ [a, b]) = f (x) dx.
A a
R
Remarque 2.2.2 On observe que la densité f doit vérifier f (x) ≥ 0 et R f (x) dx = 1.
Exemple 2.2.6 Pour la variablea aléatoire X qui suit :
• la loi normale (ou de Gauss) de paramètres µ (l’espérance) et σ 2 (la variance) :
1 1 x−µ 2
f (x) = √ e− 2 ( σ )
σ 2π
• la loi uniforme sur [a, b] :
1
1[a,b] (x).
f (x) =
b−a
• la loi expomentielle de paramètre α > 0 :
f (x) = αe−α x 1R+ (x).
• la loi de Cauchy de paramètres x0 (la position) et a (l’échelle) :
1
f (x) = h i
x−x0 2
πa 1 + a
Dans le cas où la loi de la variable aléatoire admet une densité f , elle est reliée à la fonction
de répartition FX de la façon suivante :
Proposition 2.2.7
Si X est une v.a. de densité f , sa fonction de répartition FX vérifie :
Z x
1) ∀x ∈ R, FX (x) = f (t) dt.
−∞
2) FX est continue sur R.
3) Si f est continue au point x0 , alors FX est dérivable en x0 de dérivée FX (x0 ) =
f (x0 ).
D’aprés 2), la fonction de répartition est toujours continue. De là, vient le nom qu’on
donne parfois aux variables aléatoires à densité : variables aléatoires continues.
32
Preuve Puisque X a pour densité f , et comme
FX (b) = P(X ∈] − ∞, b]) = P(X ∈] − ∞, a]∪]a, b]) = FX (b) + P(X ∈]a, b]),
on a pour tous réels a < b :
Z b
FX (b) − FX (a) = P(X ∈]a, b]) = f (t) dt.
a
1) On applique la monotonie séquentielle des probabilités avec b = x fixxé et a = −n pour
chaque n ∈ N, tel que n > −x. La suite d’évènements :
An = {ω, X(ω) ∈] − n, x]}; n > −x,
est croissante pour l’inclusion et de réunion A = {ω, X(ω) ∈] − ∞, x]} = {X ≤ x}.
Par la propriété de continuité monotone séquentielle (ou par convergence dominée), on
a P(An ) ↑ P(A), d’où
Z x Z x
FX (x) = P(X ≤ x) = P(A) = lim P(An ) = lim f (t) dt = f (t) dt
n→+∞ n→+∞ −n −∞
en notant que l’intégrale généralisée de la densité f converge en −∞.
2) On fixe x0 ∈ R quelconque. D’abord FX est continue à droite en tout point car c’est
une fonction de répartition.
Il reste à voir la continuité à gauche. Soit xn < x0 une suite croissante qui converge
vers x0 . Il faut vérifier
lim FX (xn ) = FX (x0 ).
n→+∞
On a Z x0 Z
FX (x0 ) − FX (xn ) = f (t) dt = f (t)1[xn ,x0 ] (t) dt
xn
Or |f (t)1[xn ,x0 ] (t) ≤ f (t), intégrable, puisque f est une densité, puis pour presque
chaque t ∈ R, f (t)1[xn ,x0 ] (t) → 0 puisque limn→+∞ 1[xn ,x0 ] (t) = 1[x0 ,x0 ] (t).
Le théorème de convergence dominée de Lebesgue s’applique et donne
Z
lim (FX (xn ) − FX (x0 )) = 0 dt = 0.
n→+∞
33
2.2.6 Espérance d’une variable aléatoire
Soit (Ω, F, P) un espace de probabilisé et X : Ω → R+ une variable aléatoire réelle
positive.
Définition 2.2.8
L’intégrale de X par rapport à la mesure P est appelée son espérance.
Z Z
E[X] = X(ω) dP(ω) = X dP.
Ω
Définition 2.2.9
Soit X une variable de signe quelconque. Elle est dite intégrable si la variable aléatoire
positive |X| est d’espérance (forcément définie) finie. On note alors :
Z
E[|X|] = |X| dP.
Définition 2.2.10
Une variable aléatoire X intégrable est dite centrée si E[X] = 0.
Conséquence : des propriétés de l’intégration, on déduit pour des variables aléatoires inté-
grables X, Y et des réels a, b :
• E[aX + bY ] = aE[X] + bE[Y ] (linéarité de E).
• Inégalité de Markov : si X est une variable aléatoire positive
E[X]
P(X ≥ t) ≤
t
• L’espérance n’est rien d’autre que l’intégrale (au sens de Lebesgue) de la fonction
mesurable par rapport à la mesure de probabilité P.
34
Espérance d’une variable aléatoire discrète
Soit (Ω, F, P) un espace de probabilisé et X : Ω → R une variable aléatoire avec X(Ω)
discret. La loi de X est donnée par la mesure discrète :
X
PX = P(X = x)δx .
x∈X(Ω)
La loi est une somme de mesures de Dirac : en chaque atome x ∈ X(Ω) il y a la masse
P(X = x). Alors X est intégrable si et seulement si :
X
E[|X|] = |x|P(X = x) < +∞
x∈X(Ω)
P
et dans ce cas, E[X] = x∈X(Ω) xP(X = x) où la somme est au plus dénombrable car X(Ω)
est discret (la v.a. X est discrète).
Si h : R → R est mesurable, alors h(X) est une variable discrète, elle est intégrable si et
seulement si : X
E[|h(X)|] = |h(x)|P(X = x) < +∞.
x∈X(Ω)
E[X] = 1 × p + 0‘ × (1 − p) = p.
• Soit X de loi uniforme sur l’ensemble fini {x1 , . . . , xn }. Son espérance est :
x1 + · · · + xn
E[X] = .
n
• Soit X de loi binomiale de paramètres n, p, X ∼ B(n, p). Son espérance est :
n
X
E[X] = kCnk pk (1 − p)n−k = np.
k=0
35
• Soit X de loi géométrique de paramètre p ∈]0, 1[, X ∼ G(p). Son espérance est :
+∞
X 1
E[X] = kp(1 − p)k−1 = .
k=1
p
où f est une fonction mesurable positive d’intégrale 1. Alors X est intégrable si et seulement
si : Z
E[|X|] = |x|f (x) dx < +∞
R
R
et dans ce cas E[X] = R xf (x) dx.
Si h : R → R est mesurable, alors h(X) est une variable aléatoire, elle est intégrable si et
seulement si : Z
|h(x)|f (x) dx < +∞.
R
Son espérance est alors : Z
E[h(X)] = h(x)f (x) dx.
R
• Soit X suit une loi uniforme sur l’intervalle [a, b](−∞ < a < b < +∞) si elle a une
densité f constante sur cet intervalle et nulle en dehors. Sa densité est alors :
1
1 b−a
si t ∈ [a, b],
f (t) = 1[a,b] (t) =
b−a 0 si t ∈/ [a, b],
36
La loi exponentielle est utilisée pour modéliser un temps d’attente d’un phénomène
aléatoire. Le temps d’attente moyen est alors :
1
E[X] = .
α
• Une variable aléatoire réelle suit une loi de Cauchy de paramètre a ∈ R∗+ , et elle admet
pour densité :
a 1
f (t) =
π a2 + t2
Son espérance n’est pas définie car
Z
a|x|
E[|X|] = 2 2
dx) + ∞,
R π(a + x )
Définition 2.3.1
On dit que Xn converge vers X presque sûrement (p.s.) si l’ensemble des ω ∈ Ω tel que
Xn (ω) → X(ω) est de probabilité 1 :
P(Xn → X) = 1.
37
Lemme 2.3.3 (Fatou)
Soit Xn une suite de v.a. positives. Alors :
Définition 2.4.1
Une v.a. X : Ω → R a un moment d’ordre p ≥ 1 si et seulement si
Z
p
E[|X| ] = |X|p dP < +∞.
Ω
Définition 2.4.2
LP (Ω, F, P) = {X : Ω → R|E[|X|p ] < +∞}.
LP (Ω) est un espace véctoriel normé avec pour norme
Proposition 2.4.3
Soient X, Y deux variables aléatoires, on a :
• Inégalité de Hölder : kXY k1 ≤ kXkp kY kq , pour p, q exposants conjugués (1/P +
1/q = 1).
• Inégalité de Cauchy-Schwarz : kXY k1 ≤ kXk2 kY k2 , (p = q = 2).
• Inégalité de Minkowki : kX + Y kp ≤ kXkp kY kp , (1 ≤ p ≤ +∞).
• Si une v.a. est bornée, elle admet des moments de tous les ordres.
38
• Si X possède un moment d’ordre r, pour tout n ≤ r, X possède un moment d’ordre
n.
• (LP (Ω, F, P), k.k ) est un espace vectoriel normé complet, c’est à dire un espace de
Banach.
Remarque 2.4.1 L’espérance d’une variable aléatoire donne la valeur moyenne (au sens
probabiliste) de la variable aléatoire. Sa variance (ou son écart-type) mesure la dispersion des
valeurs de la variable aléatoire autour de sa moyenne.
La définition de la variance est unifiée entre les deux principaux cas (discret et à densité)
grâce à la théorie de la mesure.
∗
• Si X est
P discrète, X(Ω) = {xi , i ∈ I} avec I = {1, . . . , n} ou I = N , la loi de X est
PX = i∈I P(X = xi )δxi , et la variance vaut :
X X
var(X) = (xi − E[X])2 PX ({xi }) = (xi − E[X])2 P(X = xi ).
i∈I i∈I
• Si X est une v.a. de densité f alors la loi de X est la mesure de densité f, dPX = f (x)dx,
et la variance vaut : Z
var(X) = (x − E[X])2 f (x)dx.
R
Propriété 2.4.1 Propriétés de la variance
• var(X) ≥ 0.
• var(X) = E[X 2 ] − E[X]2 (formule de Koenig).
2
• var(aX) = a var(X).
• var(X + b) = var(X), pour toute constante b ∈ R.
• var(X) = 0 si et seulement si X est constante p.s. (et vaut alors E[X]).
Preuve
• Par définition, on obtient tout de suite le résultat.
• Notons par µ = E[X]. En développant la variance on a :
39
• Pour le troisième point :
var(aX) = E[(aX − E[aX])2 ]
= E[a2 (X − E[X])2 ]
= a2 var(X).
• Pour le quatrième point :
var(X + b) = E[(X + b − E[X + b])2 ]
= E[(X + b − E[X] − b)2 ]
= var(X).
• Si X = c une constante p.s. alors E[X] = c et E[X 2 ] = c2 , si bien que var(X) = 0.
Réciproquement, si var(X) = E[(X − E[X])2 ] = 0, alors la v.a. (X − E[X])2 , positive
et d’espérance nulle, est elle même nulle p.s., c’est à dire X = E[X] p.s.
Remarque 2.4.2
Définition 2.4.6
Si X et Y sont deux v.a. avec des moments d’ordre 2 alors :
40
Proposition 2.4.7
p
|cov(X, Y )| ≤ var(X) × var(Y ).
|covX, Y | = |E[(X
p − E[X])(Y − E[Y ])]| p
≤ E[(X − E[X])2 ]E[(Y − E[Y ])2 ] = var(X)var(Y )
Définition 2.4.8
Soit X, Y deux variables aléatoires, leur coéfficient de corrélation est :
cov(X, Y )
ρ(X, Y ) = p ∈ [−1, 1].
var(X)var(Y )
Proposition 2.4.9
Si ρ(X, Y ) = ±1 alors il y a un lien linéaire entre X et Y : Y = aX + b, pour a, b ∈ R.
En plus, on montre que :
cov(X, Y )
a= , b = E[Y ] − aE[X].
varX
41
2.5 Indépendances
Dans cette section on considère deux variables aléatoires X et Y définies sur le même
espace Ω fini ou denombrable, muni de la probabilité P. On suppose X et Y à valeurs
respectivement dans E et F , et on a vu plus haut qu’on peut toujours supposer que E et F
sont eux-mêmes finis ou dénombrables. On pose pX Y
i = P(X = i) pour i ∈ E, et pi = P(Y = i)
pour i ∈ F .
On peut aussi considérer le couple Z = (X, Y ) comme une variable aléatoire à valeurs
dans le produit cartésien G = E × F , et on note sa loi pZk = P(Z = k) pour k = (i, j) ∈ G.
On définit enfin la loi conditionnelle de Y si X = i par
Y |X=i
pj = P(Y = j|X = i) si pX
i > 0
Proposition 2.5.1
Il est équivalent de connaître les (pZk : k ∈ G) d’une part, les (pX i : i ∈ E) et les
Y |X=i X
(pj : j ∈ F ) pour les i ∈ E tels que pi > 0 d’autre part, via les formules :
pX pZ(i,j) ,
P
i = j∈F
Y |X=i pZ
pj = (i,j)
pX
, si pX
i > 0
i
Y |X=i
pXi pj si pX
i > 0,
pZ(i,j) =
0 sinon.
Proposition 2.5.3
Il y a équivalence entre :
(i) Les variables aléatoires X et Y sont indépendantes.
(ii) On a pZ(i,j) = pX Y
i pj pour tous i ∈ E, j ∈ F .
Y |X=i
(iii) On a pj = pYj pour tout j ∈ F et tout i ∈ E tel que pX
i > 0.
42
(iii) signifie que la loi conditionnelle de Y sachant X = i est égale à la loi a priori de Y , ce
qui correspond bien à l’idée intuitive d’indépendance. Bien entendu, comme la définition de
l’indépendance est symétrique en X et Y , on peut ci-dessus échanger les variables aléatoires
X et Y .
Preuve Pour obtenir (i) ⇒ (ii) il suffit de prendre A = {i} et B = {j} dans la définition
de l’indépendance. Inversement, supposons (ii). En sommant par paquets dans une série à
termes positifs, on obtient pour A ⊂ E et B ⊂ F :
P(X ∈ A, Y ∈ B) = P(Z
P ∈ A × B)
= pZ(i,j) .
P(i,j)∈A×B
p X pY
P
=
Pi∈A Xj∈BP i jY
= i∈A pi j∈B pj
= P(X ∈ A)P(Y ∈ B).
donc on a (i). Enfin, l’équivalence (ii) ⇔ (iii) provient des formules décrites dans la propo-
sition 2.5.1.
Proposition 2.5.4
Supposons les variables aléatoires X et Y sont indépendantes, et soit f et g deux fonctions
réelles sur E et F respectivement, telles que f (X) ∈ L1 et g(Y ) ∈ L1 . Alors le produit
f (X)g(Y ) est aussi dans L1 , et on a :
qui est fini par hypothèse : par suite f (X)g(Y ) appartient à L1 . En utilisant alors (S8), la
même démonstration montre qu’on a les égalités ci-dessus en enlevant les valeurs absolues :
cela donne de la proposition.
Proposition 2.5.5
Supposons que E et F soient contenus dans l’ensemble Z des entiers relatifs. Soit U =
X + Y et pUi = P(U = i). Alors
X X
pUi = pZj,i−j = pZi−j,i
j∈Z i∈Z
43
Preuve Il suffit d’appliquer (P3) et le fait que {U = i} est la réunion des ensembles deux-
à-deux disjoints {X = j, Y = i − j} pour j ∈ Z, et aussi des {X = i − j, Y = j} pour j ∈ Z.
Proposition 2.5.6
Supposons les variables aléatoires X et Y indépendantes, à valeurs dans E = F = N, et
U = X + Y . Notons gX , gY et gU les fonctions génératrices de X, Y et U . On a alors :
gU = gX gY
Preuve Il suffit de remarquer que gU (s) = E(sU ) = E(sX+Y ) et gX (s) = E(sX ) et gY (s) =
E(sY ) pour s ∈ [0, 1] et d’appliquer la proposition 2.5.4
Exemples
On en déduit alors que X + Y suit la loi binomiale B(p, n + m) (ce que l’on savait déjà
à cause de la construction des lois binomiales).
2) Soit X et Y des variables aléatoires indépendantes de lois de Poisson de paramètres
respectifs θ et λ. La fonction générateice de la variable aléatoire U = X + Y vérifie :
Définition 2.5.7
Les variables aléatoires X1 , . . . , Xn sont indépendantes (ou, "mutuellement indépen-
dantes") si pour toutes parties A1 ⊂ E1 , . . . , An ⊂ En on a :
n
Y
P(X1 ∈ A1 , . . . , Xn ∈ An ) = P(Xi ∈ Ai )
i=1
44
Pour que la propriété ci-dessus soit satisfaite il faut et il suffit que, en posant Z =
(X1 , . . . , Xn ) (une variable à valeurs dans G = E1 × · · · × En , de loi caractérisée par les
(pZk = P(Z = k), k ∈ G)), on ait :
n
Y
P(X1 ∈ A1 , . . . , Xn ∈ An ) = P(Xi ∈ Ai )
i=1
Définition 2.5.8
La suite (Xn )n∈N∗ de variables aléatoires est dite indépendante si pour tout n la famille
finie X1 , . . . , Xn est indépendante.
45
46
Bibliographie
[1] Billingsley, P. (1995) Probability and measure. Wiley Series in Probability and Mathe-
matical Statistics. John Wiley & Sons Inc., New York, third edition.
[2] Durrett, R. (2010). Probability : theory and examples. Cambridge Series in Statistical and
Probabilistic Mathematics. Cambridge University Press, Cambridge, fourth edition.
47